디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

[정보글📚] AI는 인간 수준의 지능에 얼마나 가까운가?

ㅇㅇ갤로그로 이동합니다. 2025.01.12 23:36:42
조회 455 추천 4 댓글 0
														

 


OpenAI의 o1과 같은 대형 언어 모델은 인공지능 일반(AGI)의 달성에 대한 논의를 활성화시켰습니다. 

그러나 이러한 모델들이 스스로 이 이정표에 도달할 가능성은 낮습니다.



"LLM이 AGI를 제공할 수 있을까?" 트랜스포머 아키텍처는 여러 종류의 데이터에서 통계적 패턴을 처리하고 찾을 수 있는데, 그 데이터 세트들은 한 가지 특징을 공유합니다: 이 데이터 세트들은 낮은 '콜모고로프 복잡성'(이 데이터를 생성하는 가장 짧은 컴퓨터 프로그램의 길이)을 가지고 있습니다. 


또한, 트랜스포머 기반 LLM들에는 한계가 있다는 신호들이 있습니다. 우선, 모델을 훈련하는 데 사용되는 데이터가 고갈되고 있습니다. LLM이 커지면서 얻는 성과도 한때만큼 크지 않다는 신호도 있습니다. 신경과학자들은 우리의 지능이 뇌가 '세계 모델'을 구축할 수 있는 능력 덕분이라고 주장합니다.


여러 보고서에서 오늘날의 LLM 내부에서 원시적인 세계 모델의 발생을 나타내는 증거를 제시했습니다. 오늘날의 LLM이 부족한 중요한 기능 중 하나는 내부 피드백입니다. 인간의 뇌는 정보가 뉴런 층 사이에서 양방향으로 흐를 수 있도록 하는 피드백 연결이 가득 차 있습니다. 이는 감각 시스템에서 더 높은 뇌 층으로 정보가 흐를 수 있도록 합니다.


"LLM이 겪는 또 다른 큰 장애물은 데이터 소비가 많다는 점입니다." 미래의 시스템은 환경에서 얼마나 많은 데이터를 샘플링해야 세계 모델을 구축하고 합리적인 예측을 할 수 있을지 결정하는 능력을 부여함으로써 더 효율적으로 만들어질 수 있습니다. 


그럼 AGI를 달성할 수 있을까요? 컴퓨터 과학자들은 그렇지 않을 이유가 없다고 말합니다. 그러나 그것이 언제 도달할지에 대해서는 합의가 거의 없습니다: 예측은 지금으로부터 몇 년 이내일 수도 있고, 최소 10년 이상 걸릴 수도 있습니다.



"머신은 인간 뇌의 인지 능력을 실제로 갖추려면 얼마나 더 시간이 필요할까?" 이 질문은 수십 년간 인공지능 분야에서 핵심적인 문제였으며, 2024년 말 다시 한 번 전 세계 기술계의 초점이 되었습니다.


인공지능이 이미지 인식, 자연어 처리 등 특정 분야에서 지속적으로 돌파구를 마련하는 동안, 보다 도전적인 목표는 여전히 가까운 듯 멀리 있습니다. 그것은 기계가 유추력을 갖추고, 추상적 개념을 추론하며, 인간처럼 인지 자원을 계획하고 배치하는 능력을 갖추게 하는 것입니다.


이러한 기계 지능의 한계에 대한 지속적인 논쟁 속에서, OpenAI의 최근 출시된 새로운 인공지능 시스템이 이 전통적인 질문에 새로운 변수를 불러일으켰습니다. 샌프란시스코에 본사를 둔 AI 거대 기업인 OpenAI는 9월에 O1이라는 새로운 세대의 대형 언어 모델(LLM)을 발표했습니다. 


그리고 이번 달에는 O3라는 더 강력한 시스템이 개발 중이라는 소식이 전해졌습니다. 이 프로젝트는 "통합 인공지능(AGI)의 전주"라고 불리며 새로운 관심을 끌고 있습니다. 이전 AI 모델들과 비교할 때, O1에서 O3로 이어지는 기술적 경로는 인간의 인지 방식에 더 가까운 운영 메커니즘을 보여주며, 이러한 혁신적인 진전은 우리가 인공지능의 잠재력에 대해 인식하는 방식을 재정의하고 있습니다.


AGI가 실현된다면, 이는 인류에게 전례 없는 혁신을 가져올 수 있습니다. 기후 변화 대응, 팬데믹 방지, 암과 알츠하이머병과 같은 난제를 해결하는 데 큰 기여를 할 수 있습니다. 하지만 이러한 거대한 힘은 불확실성을 동반하며 인류에게 잠재적인 위험을 초래할 수도 있습니다. 캐나다 몬트리올대학교의 심층 학습 연구원인 요슈아 벵지오(Yoshua Bengio)는 "AI의 오용이나 통제를 잃으면 심각한 결과를 초래할 수 있다"고 경고했습니다.


최근 LLM의 혁신적인 발전은 AGI가 곧 도달할 것이라는 추측을 불러일으켰습니다. 그러나 일부 연구자들은 LLM의 구성 및 훈련 방식 때문에 AGI를 실현하기에는 "여전히 몇 가지 핵심적인 부분이 부족하다"고 주장하고 있습니다.


AGI에 대한 논의는 이제 그 어느 때보다 시급하고 중요해졌습니다. "저는 평생 AGI에 대해 이야기하는 사람들이 비정상적이라고 생각했습니다."라고 애리조나주립대학교의 컴퓨터 과학자 수바라오 캄밤파티(Subbarao Kambhampati)는 말합니다. "하지만 이제 모든 사람들이 그것에 대해 이야기하고 있습니다. 이제는 누구도 '비정상적'이라고 할 수 없습니다."


AGI 논의의 전환


"통합 인공지능(AGI)"라는 용어는 2007년 AI 연구자 벤 거르첼(Ben Goertzel)과 카시오 페나친(Cassio Pennachin)이 동명의 책 제목으로 처음 등장시켰습니다. AGI의 정확한 정의는 여전히 명확하지 않지만, 일반적으로 인간처럼 추론하고 일반화하는 능력을 갖춘 AI 시스템을 의미합니다. 인공지능 발전 역사에서 대부분의 사람들은 AGI가 여전히 실현되지 않은 목표라고 생각해왔습니다. 예를 들어, 구글 DeepMind가 개발한 AlphaGo 프로그램은 바둑을 두기 위해 설계되었으며, 최고 수준의 인간 바둑 기사들을 이겼지만, 그 능력은 오직 바둑에만 한정되었습니다.


하지만 LLM의 새로운 능력은 이 상황을 완전히 변화시키고 있습니다. 인간의 뇌처럼, LLM은 다양한 능력을 가지고 있으며, 이는 일부 연구자들이 AGI의 형태가 곧 도달하거나 이미 존재할 수 있다고 진지하게 고려하게 만들고 있습니다.


연구자들이 LLM이 이 목표를 어떻게 달성하는지에 대해 부분적으로만 이해하고 있다는 점을 고려하면, 그 능력의 범위는 더욱 놀라울 수 있습니다. LLM은 인간 뇌에서 영감을 받은 신경망으로, 계층적으로 배열된 인공 신경세포(또는 계산 단위)로 구성되어 있습니다. 이들 층 간의 연결 강도는 조정 가능한 파라미터로 표시됩니다. 훈련 중, 강력한 LLM(예: O1, Claude(Anthropic에서 개발), 구글의 Gemini)은 "다음 단어 예측(next token prediction)"이라는 방법에 의존합니다. 이 방법에서는 모델이 텍스트 샘플을 반복하여 입력받고, 마지막 단어를 숨기거나 "마스크"하고 그것을 예측하도록 요구됩니다. 그런 다음 훈련 알고리즘은 예측값과 마스크된 단어를 비교하고, 모델 파라미터를 조정하여 더 나은 예측을 할 수 있도록 합니다.


이 과정은 반복적으로 이루어지며, 수십억 개의 대화 조각, 과학적 텍스트, 프로그래밍 코드 등을 사용하여 모델이 숨겨진 단어를 신뢰성 있게 예측할 수 있게 됩니다. 이후 모델 파라미터는 훈련 데이터의 통계적 구조와 포함된 지식을 포착하며, 고정된 후 새로운 질문이나 "프롬프트"에 대해 예측을 생성하는 데 사용됩니다. 이러한 방식은 LLM이 언어를 인간처럼 해석하는 듯한 방식으로 작동하게 만듭니다.


이러한 방식은 다양한 응용 분야에서 현저한 성과를 거두었습니다. 예를 들어 자연어로 설명된 문제를 해결하기 위해 컴퓨터 프로그램을 생성하거나, 학술 기사를 요약하고 수학 문제를 푸는 등의 작업에서 성공을 거두었습니다.


LLM의 한계


O1은 "CoT(chain of thought)"라는 새로운 방법을 도입해 AGI에 근접할 가능성을 보입니다. 이 방법은 복잡한 문제를 더 작은 단계로 분해하여 해결하는 방식으로, 작은 LLM에서는 효과가 미미하지만 O1과 같은 대형 모델에서는 그 효과가 두드러집니다.


하지만 O1도 여전히 AGI 기준에는 미치지 못한다고 전문가들은 보고 있습니다. Kambhampati는 O1이 최대 16단계까지는 잘 작동하지만, 20~40단계에 이르는 계획에서는 성능이 급격히 떨어진다고 밝혔습니다.


Vafa는 "이 지도에는 물리적으로 불가능한 거리 방향과 다른 도로를 가로지르는 고가도로가 포함되어 있다"고 지적했습니다. 연구자들이 테스트 데이터를 조정하여 훈련 데이터에 나타나지 않은 예상치 못한 우회로를 추가했을 때, 모델은 다음 회전 방향을 예측하지 못했으며, 이는 모델이 새로운 상황에 적응하는 능력이 약하다는 것을 보여줍니다.


피드백의 중요성


구글 딥마인드의 AGI 연구팀 멤버인 Dileep George는 현재의 LLM이 중요한 특성인 내부 피드백을 결여하고 있다고 지적했습니다. 인간의 뇌는 방대한 피드백 연결을 가지고 있어 정보가 신경세포 계층 간에 양방향으로 흐를 수 있게 합니다. 이 메커니즘은 감각 정보가 뇌의 고위 계층으로 흐르며 환경을 반영하는 세계 모델을 생성하게 합니다. 동시에 세계 모델에서 나온 정보는 아래로 전파되어 추가적인 감각 정보를 얻도록 이끕니다. 이 양방향 과정은 지각에 매우 중요하며, 뇌는 세계 모델을 이용해 감각 입력의 잠재적 원인을 추론합니다. 또한, 이 과정은 계획을 지원하며, 세계 모델을 사용하여 다양한 행동 계획을 시뮬레이션하는 데 사용됩니다.


하지만 현재의 LLM은 피드백을 추가적인 방식으로만 사용할 수 있습니다. 예를 들어, O1에서는 내부 CoT 프롬프트 메커니즘이 쿼리 응답을 돕고 최종 답변을 생성하기 전에 이를 LLM에 다시 피드백합니다. 그러나 Chollet의 테스트에서 보여준 바와 같이, 이 메커니즘은 추상적 추론 능력의 신뢰성을 보장하지 않습니다.


Kambhampati 등 연구자들은 LLM에 검증기라는 외부 모듈을 추가하려고 시도했습니다. 이 모듈은 특정 맥락에서 LLM이 생성한 답변을 확인하며, 예를 들어 여행 계획의 실행 가능성을 검증합니다. 만약 답변이 충분하지 않으면, 검증기는 LLM에 쿼리를 다시 실행하라고 요구합니다. Kambhampati의 팀은 외부 검증기가 포함된 LLM이 여행 계획을 생성할 때 일반 LLM보다 뛰어난 성과를 보였지만, 연구자들은 각 작업에 대해 전용 검증기를 설계해야 한다고 밝혔습니다. "보편적인 검증기는 없다"고 Kambhampati는 지적했습니다. 이에 비해 AGI 시스템은 인간처럼 새로운 작업에서 올바른 추론을 보장하기 위해 추상적인 규칙을 이용하는 것처럼 다양한 상황에 적응할 수 있도록 자체적으로 검증기를 구축해야 할 필요가 있을 수 있습니다.


이러한 아이디어를 바탕으로 새로운 AI 시스템을 개발하는 연구는 아직 초기 단계에 있습니다. 예를 들어, Bengio는 현재의 Transformer 기반 모델과는 다른 AI 시스템을 구축하는 방법을 탐구하고 있습니다. 그는 "생성적 흐름 네트워크(generative flow networks)"라는 방법을 제안했으며, 이는 하나의 AI 시스템이 세계 모델을 구축하고 이를 사용하여 추론과 계획을 수행할 수 있도록 설계되었습니다.


LLM이 직면한 또 다른 중요한 장애물은 그들의 데이터 요구량입니다. 런던 대학의 이론 신경과학자 Karl Friston은 미래의 AI 시스템이 환경에서 데이터를 얼마나 샘플링할지 자율적으로 결정함으로써 효율성을 향상시킬 수 있다고 제안했으며, 이는 단순히 모든 사용 가능한 데이터를 수집하는 방식이 아닙니다. 그는 이러한 자율성이 AGI에 필수적일 수 있다고 생각합니다. "현재의 대형 언어 모델이나 생성형 AI에서는 이러한 진정한 자율성이 존재하지 않습니다. 만약 AI가 일정 수준의 자율적 선택을 할 수 있다면, 그것이 AGI로 가는 중요한 단계가 될 것이라고 생각합니다."

자동등록방지

추천 비추천

4

고정닉 0

0

댓글 영역

전체 댓글 0
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 말머리 제목 글쓴이 작성일 조회 추천
3007 설문 실제 모습일지 궁금한 미담 제조기 스타는? 운영자 25/05/05 - -
1495 공지 특이점은 안온다 갤러리 건의/신고게시판 [9] 특갤러(118.235) 25.01.26 1862 3
2536 정보글 "AI는 하나의 거대한 폰지사기입니다" [2] ㅇㅇ갤로그로 이동합니다. 05:18 96 3
2535 일반 특슬람들 암 갤러리에도 전도하는 것 보고 경악함 [3] 핑키D파이갤로그로 이동합니다. 05.07 167 2
2534 뉴스📰 ChatGPT 사용자들은 기괴한 망상을 일으키고 있다 [4] 바이든로봇갤로그로 이동합니다. 05.07 251 5
2533 일반 미국의 대통령은 바이든임 [3] 바이든로봇갤로그로 이동합니다. 05.07 219 5
2532 일반 2000년대에 예측한 2020년 한국군 모습 [4] aaabb갤로그로 이동합니다. 05.06 228 5
2531 일반 특슬람들 ㄹㅇ 바퀴벌레처럼 온갖 갤에 기어나오네 [3] 마와미갤로그로 이동합니다. 05.06 250 6
2530 일반 근데 특갤 간만에 들어가봤는데 [2] ㅇㅇ갤로그로 이동합니다. 05.06 218 5
2529 유머 지능에 대한 특슬람의 그릇된 인식 [2] ㅇㅇ갤로그로 이동합니다. 05.06 209 3
2528 일반 특슬람 평균 6 [1] ㅇㅇ갤로그로 이동합니다. 05.06 205 5
2527 일반 AI 교과서 현실 [1] ㅇㅇ갤로그로 이동합니다. 05.06 252 5
2526 일반 특슬람은 개신교랑 다름 없음 [5] ㅇㅇ갤로그로 이동합니다. 05.06 191 1
2525 일반 AI는 경제적 변화를 가져오지 못했다 ㅇㅇ갤로그로 이동합니다. 05.05 272 7
2524 유머 한국 유튜브 한정 특이점 온듯 싶다 [1] Hound갤로그로 이동합니다. 05.05 273 0
2523 일반 특슬람 평균5 [2] ㅇㅇ갤로그로 이동합니다. 05.05 299 6
2522 뉴스📰 GenAI를 두 단어로 표현하면 "성공 극장"입니다. ㅇㅇ갤로그로 이동합니다. 05.04 201 4
2521 일반 특슬람 평균4 [3] ㅇㅇ갤로그로 이동합니다. 05.04 290 9
2519 일반 특슬람 평균 3 [3] ㅇㅇ갤로그로 이동합니다. 05.03 323 4
2518 일반 얼마 전 초전도체 난리랑 완전히 똑같다. [1] ㅇㅇ갤로그로 이동합니다. 05.03 319 3
2517 일반 특슬람 평균 2 [3] ㅇㅇ갤로그로 이동합니다. 05.03 327 5
2516 일반 LLM은 '이해'와는 거리가 먼 답변 기계이자 말장난이다. [1] 병신®갤로그로 이동합니다. 05.01 406 6
2515 일반 그러고보니 로보택시 << 이거 어디갔냐 ㅋㅋ ㅇㅇ갤로그로 이동합니다. 05.01 197 2
2514 일반 2029~2030년 발전이 어느 정도 될 거라고 봄? [4] ㅇㅇ갤로그로 이동합니다. 05.01 376 0
2513 일반 과학자들 예측이 다 틀린 이유가 [4] ㅇㅇ갤로그로 이동합니다. 05.01 423 2
2512 정보글 AGI 예측시기 [5] ㅇㅇ갤로그로 이동합니다. 05.01 744 13
2511 일반 특이점 신앙에서는 만약 초지능이 인간이 필요없다는 판단 내리면 [2] 삽질少年갤로그로 이동합니다. 04.30 272 0
2510 일반 몇년내로 agi가 나와서 모든게 자동화, 자동생산 된다면 [1] ㅇㅇ갤로그로 이동합니다. 04.30 293 4
2509 일반 재귀개선이 이 영상에서 다루는 거랑 연관이 있음? [6] 삽질少年갤로그로 이동합니다. 04.30 270 1
2508 일반 "샘 알트먼이 AGI 온댔는데요??" ㅇㅇ갤로그로 이동합니다. 04.30 271 5
2507 일반 이 글 특갤에 올리면 어떻게 되냐?ㅋㅋㅋ [4] ㅇㅇ갤로그로 이동합니다. 04.30 415 2
2506 일반 Zitron) 리얼리티 체크 [1] ㅇㅇ갤로그로 이동합니다. 04.30 244 6
2505 일반 xAI 로고가 지리긴 지리네 e/linear갤로그로 이동합니다. 04.29 211 0
2503 일반 이 갤은 글마다 꾸준히 조회수가 높네 ㅇㅇ갤로그로 이동합니다. 04.27 280 5
2502 일반 드디어 시뮬레이션 세계으 버그를 찾았군. [1] 병신®갤로그로 이동합니다. 04.27 295 1
2501 일반 이제 ai 자체에 관심을 덜 갖게된다 ㅇㅇ갤로그로 이동합니다. 04.27 251 0
2500 일반 특슬람 평균 [2] ㅇㅇ갤로그로 이동합니다. 04.27 433 8
2499 일반 재미 있는게 계속 나오는 세상이어서 [1] 병신®갤로그로 이동합니다. 04.27 233 0
2498 일반 특갤은 수상할 정도로 완장수호단이 많더라 [2] ㅇㅇ갤로그로 이동합니다. 04.26 256 2
2496 일반 하드웨어가 이미 한계인데 ㅇㅇ갤로그로 이동합니다. 04.26 231 1
2495 일반 현생에서 체감 1도 안되는데 ㅇㅇ갤로그로 이동합니다. 04.26 196 0
2494 일반 이래도 오픈AI 억빠가 아냐?? [1] ㅇㅇ갤로그로 이동합니다. 04.26 305 4
2493 일반 진짜 보고있으면 토나오네 [1] ㅇㅇ갤로그로 이동합니다. 04.26 314 3
2492 일반 끝까지 코딩 배우지 말라는 특갤 완장 [2] e/linear갤로그로 이동합니다. 04.26 393 2
2491 일반 베리타시움에서 알파폴드 관련한 영상 번역채널에 올라옴 ㅇㅇ갤로그로 이동합니다. 04.26 207 2
2490 일반 AI는 학습하고 따라하는 카피캣일뿐인데 벌써부터 특이점 들먹이는건 [3] 핫썸갤로그로 이동합니다. 04.25 391 0
2489 일반 o3는 Arc-AGI로 훈련됨 [1] ㅇㅇ갤로그로 이동합니다. 04.24 458 2
2488 일반 특슬람들은 그냥 저지능자들이 맞음 ㅇㅇ갤로그로 이동합니다. 04.23 384 4
2487 일반 AGI보다는 양자콤퓨타가 더 관심이 감. 병신®갤로그로 이동합니다. 04.23 223 0
2486 일반 AI에 의존하는 건 고치는 게 좋다고 생각함 [2] 마와미갤로그로 이동합니다. 04.23 438 3
2485 일반 특갤이 재밌는게 [3] ㅇㅇ갤로그로 이동합니다. 04.23 474 3
2484 일반 얘네 진심으로 이러는거임?? [1] ㅇㅇ갤로그로 이동합니다. 04.23 540 7
뉴스 ‘하트페어링’ PD “‘러브캐처’ 출신 지민, 마지막까지 섭외 고민” [인터뷰①] 디시트렌드 05.07
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2