디시인사이드 갤러리

마이너 갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

[정보,뉴스] (정보글) 어째서 많은 유명인들이 5년 안에 AGI가 온다고 하는가?

월드모델갤로그로 이동합니다. 2025.09.05 18:16:48
조회 14665 추천 102 댓글 60


※ 해당 글은 점심 먹다 든 생각을 대충 정리해둔 글이며 틀린 부분이 있을 수 있습니다.






허사비스는 어째서 급진적이게 되었는가?



7cf3da36e2f206a26d81f6e24f88776b



과거 알파고와 이세돌의 경기가 뉴스에 나오고 사람들에게 화재이던 시절.

허사비스가 AGI 출현 시기에 대해 언급한 외국 인터뷰를 봤던 기억이 있다.


그 당시 그는 AGI는 수십 년 또는 자기 생애에 나오면 좋겠다고 했던 것 같다.

사실상 그 시절 그에게 AGI란 기약 없는 나오면 좋고 아니면 말고 수준의 미래 공상이었다.


그 후 대규모 언어 모델인 ‘LLM’이 유행하기 시작했다.

유행 따라 갑자기 근거 없이 AGI가 몇 년 안에 등장한다는 전문가들도 쏟아져 나왔다.


하지만 새로운 돌파구가 생겼음에도 그의 AGI 예측은 여전히 보수적이었다.


그런 그의 모습을 보면서 ‘얀 르쿤’ 다음으로 AGI에 대해 보수적인 인물이란 인상이 생겼고,

만약 AGI가 정말 곧 등장한다면 그의 의견에 무언가 변화가 있으리라.


그러던 그가 어느 순간을 기점으로 갑자기 예측 타임라인이 조금씩 줄어들더니 

최근엔 ‘5~10년 안에 등장’이란 파격적인 주장을 하였다.



https://www.chosun.com/economy/tech_it/2025/03/18/RAYYVDHPLRHO5C7GC6QULOPQGU/

 



그 잠깐 사이에 대체 무슨 일이 있었던 걸까?





세상을 이해한다는 것.


 



“언어 모델 확장해 지능적 기계 만들려는 것은 고공비행기로 달에 가려는 것 같아
고도 기록을 깰 수도 있겠지만, 달에 가는 것은 전혀 다른 접근법 필요로 할 것”

AI 업계의 대부인 ‘얀 르쿤’은 LLM 모델들을 최근까지 크게 비판해오고 있다.
비행기로는 달에 갈 수 없다며 새로운 접근 방식인 ‘V-JEPA’를 연구하고 있다.

그의 방식과 현재 유행하는 LLM인 ‘GPT, Gemini, Grok, Anthropic’은 뭐가 다를까?

LLM 측은 텍스트는 현실의 실제 과정의 압축된 표현이라고 보기 때문에
‘다음 단어’를 잘 예측하는 것을 AI가 세상을 이해하는 것으로 보고

V-JEPA 측은 현실과 같은 비디오의 ‘다음 프레임’을 잘 예측하는 것을 AI가 세상을 이해하는 것으로 본다.

양측 의견에서 공통되는 것은 ‘다음을 예측’ 하는 것이 ‘이해의 본질’이라는 것이다.

그럼 세상을 이해하기 위해선 무엇의 다음을 예측해야 되는가?

단어인가?

프레임인가?





토큰이란 무엇인가?



7ff3c028e2f206a26d81f6e347887d



토큰은 AI 모델이 학습과 추론 과정 중에 처리하는 데이터의 단위이다.

오픈 AI의 눈부신 기술 발전의 주역이었던 일리야는 한 인터뷰에서 다음과 같이 말했다.



“다음 토큰을 잘 예측한다는 것은 ‘이해하는 것’을 말합니다. 근본적인 현실을 말이죠.

그 이해가 토큰의 생성으로 이어집니다. 이건 단순한 통계가 아닙니다.

통계인 건 사실이지만 그 통계를 이루는 것은 무엇입니까?

이러한 통계를 압축하려면 이 통계 세트를 생성하는 ‘세계에 대해 이해’해야 합니다.”



그럼 인공지능이 세상을 이해하기 위해선 어떤 토큰을 학습해야 하는가?


인간은 시각, 청각, 후각, 미각, 촉각 총 5가지의 감각으로 데이터를 처리한다.

선천적인 장애로 인하여 청각, 후각, 미각이 없는 경우 어느 정도 일상생활이 가능하지만

 

시각과 촉각은 없으면 일상생활에 큰 영향이 생긴다.

인간 같은 AI를 위해선 적어도 시각과 촉각과 관련된 토큰 학습이 필요하다는 뜻이다.


여기까지 보면 르쿤의 말이 좀 더 맞는 거 같아 보인다.


인간은 텍스트가 없어도 시각적인 자료만으로도 학습 할 수 있다.






월드 모델




월드 모델(World Model)이란 텍스트나 이미지를 넘어 
현실 세계의 물리적 법칙, 공간, 시간, 상호작용 등을 이해하고 
시뮬레이션할 수 있도록 구축된 파운데이션 모델의 일종이다.

쉽게 말하면 월드 모델이란 AI가 내부에 가지고 있는 세상의 이해에 대한 모형이란 말이다.

여기서 중요한 것이 있다.
인류의 기하급수적인 발전은 무엇의 발명 이후부터 시작되었는가?

바로 ‘언어’다.


구글 브레인의 연구원 나타샤 자크스는 르쿤의 제안에서 언어가 완전히 배제된 것은 이상하다고 지적하면서,
“우리는 대형 언어 모델이 매우 효과적이며 수많은 인간의 지식을 활용한다는 사실을 알고 있다”고 덧붙였다.

우리는 뜨거운 냄비를 직접 만지지 않더라도 그렇게 하지 말라는 말만 듣고 행동을 고칠 수 있다.
그녀는 “언어가 없다면 얀이 제안하는 이 월드 모델을 어떻게 업데이트할 수 있겠는가?”라고 물었다.

미첼은 “르쿤의 아이디어를 바탕으로 빠른 시일 내에 인간 수준의 AI가 만들어질 가능성은 거의 없다”고 말했다.


언어는 현실의 실제 과정의 압축된 표현이다.
사실상 그 어떠한 데이터 보다 압축되었으며 밀도가 높다.

인류는 실제 과정의 압축된 표현인 ‘언어’의 발명을 통해 서로 빠르게 소통하며
서로의 월드 모델을 업데이트할 수 있었다.

그리고 그것이 곧 기하급수적인 문명의 발전으로 이어졌다.

즉.. 구글 브레인 연구원의 말처럼 AI의 발전 방향성에서 LLM은 배제할 수 없는 요소인 것이다.

LLM + α 가 되어야 하는 것이고 이것에 대한 성과가 최근에 있었다.
이것이 바로 허사비스가 최근에 급진적인 의견으로 바뀐 이유이다.





LLM은 어째서 포켓몬을 못 하는가?


최근 LLM의 눈부신 발전으로 인해 많은 사람들이 노동 대체에 대한 희망을 느꼈다.
하지만 그러한 기대감은 LLM의 처참한 포켓몬 플레이 실력으로 인해 박살이 났다.

LLM의 포켓몬 플레이를 위해선 사람이 여러 사전 준비와 툴을 제공해야 했으며
그렇게까지 했는데도 공략은 느리고 특정 구간에서 막히거나 했다.

어째서 이러한 일이 일어났는가?


 



“그가 지적하는 LLM의 근본적 한계는 텍스트라는 이산적(discrete) 정보에 갇혀있다는 점이다. 
LLM이 예측하는 ‘토큰’은 약 10만 개 내외의 한정된 어휘 사전 중 하나를 고르는 문제로, 
확률 분포를 통해 처리할 수 있다. 

하지만 현실 세계는 영상과 같이 고차원적이고 연속적인 데이터로 이루어져 있다. 
LLM의 방식으로는 효과적으로 모델링 하기 어렵다는 것이다.

그는 “카메라를 움직이며 방을 찍다가 멈춘 뒤 다음 장면을 예측하라고 한다면, 
AI가 방의 전반적인 모습은 예측할 수 있어도 그 안에 있는 사람 한 명 한 명의 얼굴까지 
정확히 그려내는 것은 불가능하다”고 설명한다. 

이처럼 세상에는 예측 불가능한 세부 정보가 너무나 많기에, 픽셀 단위로 
영상을 완벽히 재현하려는 생성 모델 방식은 자원을 낭비할 뿐이라고 지적한다.”


쉽게 말하면 이산적이란 변수가 취할 수 있는 값의 수가 ‘유한’한 경우다.
반면에 연속적이란 변수가 취할 수 있는 값이 현실처럼 ‘무한’하다.


7ef3c028e2f206a26d81f6e74686776e7c18



포켓몬 주인공이 2층 방 안의 TV 앞에 있다.
그리고 다음 장면은 계단을 타고 1층으로 내려간 상태이다.

LLM은 각각의 장면의 스크린샷을 통해서 정보를 얻었다.
즉.. 이산적인 이미지 데이터를 통해 추론하여 플레이 한 것인데.

포켓몬이란 게임은 비디오나 현실처럼 연속적인 환경이다.
즉.. 이산적인 LLM 모델로는 효율적으로 플레이가 불가능했다.
같은 장소를 빙글빙글 돌 거나 의미 없는 행동을 반복하는 등…

우리는 여기서 얀 르쿤의 말이 틀린 말이 아니란 것을 알 수 있다.

얀 르쿤의 말처럼 비디오의 ‘다음 프레임’을 예측하는데 효율적인 모델이 있다면
게임의 다음 프레임을 예측하여 LLM 보다 더 빠르고 효율적으로 게임을 클리어했을 것이다.

LLM 측이 틀린 것도 아니고 얀 르쿤이 틀린 것도 아닌 것이다.
둘 다 맞는 말이었기에.

인공지능의 발전 방향은 ‘LLM + 비디오 + α’가 되어야 하는 것이다.





LLM 네이티브 이미지 생성


 



원래라면 LLM은 ‘텍스트’를 담당하고 그 외의 이미지나 비디오는 디퓨전 같은 특화 모델을 이용해야 했다.

최근 GPT부터 시작하여 Gemini까지 DALL-E, Imagen, NovelAI 같은 디퓨전 모델이 아닌
LLM 모델이 이미지를 생성할 수 있게 되었다.




79f3c028e2f206a26d81f6e744867d6c46



해당 LLM 네이티브 이미지 생성 모델은 학습 초기부터 
"웃는 얼굴 픽셀"과 "'최악의 하루'라는 단어"가 동시에 나타나는 패턴을 학습했다.

‘a cute cat’ 이라는 텍스트 토큰 시퀀스가 주어지면, 
그 뒤에 [101, 253, 8024, 952, ...] 와 같은 시각 토큰 시퀀스가 와야 한다는 패턴을 학습한 것이다.

이처럼 데이터 간의 복잡하고 미묘한 상호 의존성을 대규모로 초기부터 학습하기 때문에, 
상황에 대한 훨씬 더 깊고 정확한 이해가 가능해졌다.

이것이 Early Fusion이 '강력한 멀티 모달 AI'를 가능하게 하는 이유다.

이미지를 네이티브 학습시킬 수 있다는 것은 비디오 역시 가능하다는 것이다.
비디오는 이미지의 연속이기 때문이다.





무엇이 그를 들뜨게 했는가?


78f3da36e2f206a26d81f6e747847d6fe0



나는 최근 허사비스의 트윗을 보고 당황할 수밖에 없었다.
그는 현미경 이미지에 나노 크기의 바나나가 있는 이미지를 올리며.

이상한 물체를 발견했다는 인공지능 업계 특유의 hype (과장 광고)를 했기 때문이다.
그는 평소에 보수적이며 이런 hype와는 거리가 먼 인물이었다.

그리고 며칠 뒤 ‘나노 바나나’라는 모델이 제미나이에 업데이트되었다.
처음 사람들은 GPT와 같은 네이티브 이미지 생성 모델이라 생각했다.

근데 무언가 다르다..?





나노 바나나는 LLM 네이티브 비디오 학습 모델일까?


7bf3da36e2f206a26d81f6ec4685716e



“(번역) 저는 Gemini의 새로운 이미지 모델(나노-바나나)이 
실제로는 단일 프레임을 생성하는 비디오 모델이라고 100% 확신합니다. 이것은 월드 모델입니다.”

“거의 완벽에 가까운 정확도로 물체를 회전시킬 수 있습니다. 
특히 이 이미지는 반사광(반사되는 부분) 때문에 제가 시도해 본 다른 모든 모델들을 혼란스럽게 만들었습니다.”


처음 사람들은 나노 바나나가 단순 LLM 네이티브 이미지 생성 모델인 줄 알았다.
하지만 얼마 안 가 이상한 점을 발견하게 된다.

단순 세부 사항을 일관성을 지키면서 수정할 수 있는 것뿐만 아니라.
이미지의 물체를 일관성을 지키며 완벽에 가까운 정확도로 ‘회전’ 시킬 수 있었기 때문이다.

해당 물체를 90도 회전시키라는 ‘언어’를 알아듣고 물체의 ‘다음 프레임’인 90도 회전 모습을 예측한 것이다.
나노 바나나를 개발한 구글 개발자 Logan Kilpatrick는 인터뷰에서 다음과 같이 말했다.


"이 모델의 핵심은 단순히 이미지를 생성하는 것을 넘어서 네이티브 멀티 모달 아키텍처를 가지고 있다는 점입니다. 
텍스트와 이미지를 하나의 통합된 단계에서 처리하도록 처음부터 훈련되었죠."

"기존에는 이미지를 잘 생성하는 모델과 이미지를 편집하는 모델이 따로 있었어요. 
생성 모델은 예쁜 이미지를 만들 수 있었지만 실제로 활용하기는 어려웠고, 
편집 모델은 이미지를 수정할 수 있었지만 제한적이었습니다. 
우리가 만든 이 모델은 두 가지 기능을 융합했을 뿐만 아니라, Gemini 모델의 기본 지능까지 결합했어요."


https://gall.dcinside.com/m/thesingularity/791721

 



기존 네이티브 이미지 모델과 너무 이질적으로 달랐기에
사람들은 나노 바나나가 아직 공개만 하고 출시는 안 한 ‘지니 3’의 경량화 모델이라고 추측했다.




지니 3는 위 영상과 같이 이미지를 통해 상호작용 가능한 시뮬레이션 세계를 구축하여 

게임처럼 플레이할 수 있는 월드 모델이다.


만약 나노 바나나가 정말 LLM 네이티브 비디오 모델이라면

드디어 르쿤이 그리 비판하던 LLM의 한계가 정복된 것이다.


LLM이 현재 연구 중인 ‘V-JEPA’만큼 효율적인 구조는 아니지만 ‘다음 프레임’을 예측할 수 있게 된 것이다.



https://gall.dcinside.com/m/thesingularity/787585

 



https://gall.dcinside.com/m/thesingularity/817916

 



구글 연구원들은 ‘지니’를 AGI로 가는 마지막 퍼즐이라 평가했으며 다음과 같이 말했다.


“시뮬레이션은 본질적으로 멀티 모달(multimodal)일 수 있거든요.
소리, 촉각, 심지어 후각까지 확장될 수 있습니다.
예를 들어 눈보라 장면이라면, 시각적으로 눈이 날리고 바람이 부는 걸 보여주면서, 
동시에 바람 소리나 눈이 부딪히는 소리를 함께 생성하는 거죠.
아직 촉각 같은 건 기술적으로 초기 단계지만, 분명히 미래엔 가능해질 겁니다.”





재귀 개선은 어떤 식으로 일어나는가?


기술적 특이점을 위해선 ‘재귀 개선’하는 범용 인공지능이 필요하다.
대부분의 사람들은 충분히 지능적인 시스템이라면 알아서 재귀 개선 할 것이라 생각한다.

“재귀적 자기 개선(Recursive self-improvement, RSI)은 
인공 일반 지능(AGI) 시스템이 인간의 개입 없이 자체 능력과 지능을 향상시켜 
초지능 또는 지능 폭발로 이어지는 과정이다.”

나 또한 그랬고 그동안 이 부분에 대하여 깊게 생각해 본 적이 없었다.
재귀 개선을 이해하려면 ‘인류의 발전사’를 알아볼 필요가 있다.

인류의 발전사가 재귀 개선 그 자체이기 때문이다.





문명이 가진 고유의 속성


주먹에 쥐고 쓸 수 있는 도끼 형태의 모양을 가지는 뗀석기를 ‘주먹도끼’라 부른다. 
그렇다, 인류의 시작은 고작 이런 돌덩어리를 ‘도구’로 쓰는 원시 문명이었다.

그런 원시 문명이 현대엔 고도로 발전하여 로켓을 쏘는 우주 문명이 되었다.
이러한 것이 어떻게 가능한가?

인류의 지능이 갑자기 더 똑똑해진 것일까?
아니면 외계인 같은 ‘외부’의 도움이라도 있었던 것일까?

아니다, 이러한 발전이 가능했던 이유는 ‘문명’이 가진 ‘수확 가속의 법칙’이란 고유의 속성 때문이다.

현실에선 다양한 현상이 일어난다.

A라는 사람이 ‘특정 현상 1’을 보고 ‘a 가설’을 발표했다.
B라는 사람이 그 가설은 틀렸다고 ‘b 가설’을 발표했다.

그러자 C라는 사람이 둘 중 어느 가설이 맞는지 ‘도구’를 이용하여 증명해 보자고 한다.
그 결과 ‘a 가설’과 ‘b 가설’은 둘 다 틀렸고 새로운 ‘c 이론’이 증명됐다.

이 과정에서 인류 문명은 c 이론과 도구를 얻었다.

이러한 A → B → C의 과정이 문명의 규모에서 각 분야마다 일어나고
그리고 그 각 분야마다 생겨난 이론과 도구들이 계속 쌓이고 서로 시너지를 일으키기 시작한다.

이것이 바로 레이 커즈와일이 말하는 ‘수확 가속의 법칙’인 것이다.


“수확 가속의 법칙이란 진화 과정이 가속적이라는 현상,
그 산물 또한 기하급수적으로 증가한다는 현상을 나타내기 위해 내가 만든 말이다.
진화 과정의 산물에는 연산 같은 정보 관련 기술들이 포함된다.”


이러한 가속적 기술 발전이 가능한 이유는 이전 단계의 혁신에서 사용했던 지식과 도구들이 계속 누적되고 
그것들을 이용하여 더욱 강력한 기술을 더 빠르게 창조할 수 있기 때문이다.





재귀 개선에 필요한 6가지, 문명 / 현상 / 추론 / 가설 / 도구 / 증명.


인류의 발전사를 보고 1가지 중요한 점을 깨달을 수 있다.
그것은 돌덩이를 쓰던 원시 문명에서 로켓을 쏘는 우주 문명까지의 발전사에서

인류의 지식의 총량은 늘어났지만 근본적인 인류의 지능, 즉.. 뇌의 아키텍처엔 큰 변화가 없었단 것이다.
이것을 통해 재귀 개선에 제일 중요한 것은 ‘추론’ 능력이란 것을 알 수 있다.

추론 능력을 통해 ‘문명’에 속한 구성원이 ‘현상’을 추론하여 ‘가설’을 세우고 ‘도구’를 통해 ‘증명’한다.
이러한 과정이 문명의 규모에서 동시다발적으로 일어나고 시너지를 일으키는 ‘수확 가속의 법칙’이 일어나면서

인류는 고도화된 현대 문명까지 재귀 개선 한 것이다.

GPT-4는 ‘정답만 가르치는 방식’으로 만들어졌다,
반면에 GPT-o1은 ‘풀이 과정도 가르치는 방식’으로 만들어졌다, (Let's Verify Step by Step 논문 참고).

우리는 재귀 개선에 가장 중요한 ‘추론’이라는 능력을 GPT-o1 단계에서 이루어냈다.

즉.. 재귀 개선에 의한 특이점은 ‘추론’을 구현해낸 시점에서 확정되었다는 이야기이다.


7af3c028e2f206a26d81f6e64288756b1c






인류는 초 도약할 준비가 되었다.


75f3c028e2f206a26d81f6e14f82726fae



‘나노 바나나’는 이미지의 ‘다음 프레임’을 효과적으로 예측하고 있으며
LLM 네이티브 비디오 학습 모델일 가능성이 있다.

비디오의 다음 프레임에 와야 하는 것을 잘 예측할 수 있다는 것은
물질 간의 상호작용을 잘 이해한다는 말과 같다.

‘나무(A)’와 ‘나무에 열린 사과(C)’ 그리고 ‘나무에서 바닥 방향으로 떨어진 사과(D)’가 있다고 가정하자.

AI는 비디오를 통해 학습하며 나무에서 바닥 쪽으로 떨어지는 사과를 보고
‘나무(A)’와 사과(C)’ 사이에 ‘중력(B)’이라는 상호작용이 있다는 것을 이해할 것이다.

추론과 검증을 통해 ‘중력(B)’를 정의하고 응용하여 탈출 속도를 벗어나는 ‘로켓’을 만들 수도 있을 것이다.

그렇다, AI가 물질 간의 상호작용을 이해했다는 것은 ‘새로운 무언가’를 만들 수 있다는 것이다.


현재 인류는 AI의 재귀 개선에 필요한 것을 대부분 달성하였다.


문명 - 스타게이트 프로젝트, (AI문명, 초 대규모 데이터센터, 데이터센터 속의 천재들).

현상 - 현상의 상호작용을 이해할 수 있는 LLM 네이티브 비디오 모델과 시뮬레이션 모델.

추론/가설 - Let's Verify Step by Step 논문.

도구/증명 - AI 에이전트.

물질 간의 상호작용 장면이 담긴 고품질 비디오 데이터셋 - AR안경.


로봇의 전자 회로는 인간의 생화학적 회로보다 100만 배 더 빠르다고 한다.
인공지능이 인간보다 100만 배 빨리 생각하는 기계라면,

예를 들어 MIT 개발 팀이 마침내 자신들과 같은 지능을 가진 로봇을 개발했다고 가정해 보자.
그렇다면 그 순간부터 그 로봇의 생각 속도는 MIT 개발 팀의 생각 속도보다 100만 배 빨라질 것이다.

이를 시뮬레이션으로 돌려보면 이 인공지능은 단 1주일 만에 MIT 팀 2만 년어치의 일을 할 수 있게 된다.

이 말은, 인공지능을 개발하는 회사들 중 한 회사가 다른 회사들보다 단 1주일만 앞서 인공지능을 개발해도
2만년을 앞서갈 수 있다는 말이 된다.

생물학적 인간은 곧 화석 같은 존재가 될 것이다.

우리는 곧 문명의 주역을 AI에게 넘겨주게 될 것이고,
BCI를 이식하여 AI 문명에 합류할 것인지 아닐지 선택해야 할 것이다.


OpenAI CEO 샘 올트만, “AI, 10년 내 인간 노동력 대체”...1500만원 해당 잉여부 생산


구글 "2030년까지 AGI 등장...가능성 높은 시나리오는 '재귀적 개선' "

https://www.aitimes.com/news/articleView.html?idxno=169315








글을 마치며..



해당 글 내용은 저의 주관적인 의견이며 틀린 내용이 있을 수 있습니다.

틀린 부분은 부드럽게 댓글로 지적해 주시면 감사합니다.


알파고 시절부터 꾸준히 관심을 가져오고 오랜 기다림에 지치는 순간도 있었지만

기술적 특이점에 대해 오늘만큼 확신이 들었던 날이 없던 것 같습니다.


나노 바나나가 출시되고 며칠 가지고 놀고 있는 사이

누군가는 빠르게 ‘Build Apps with Gemini’ 기능을 이용하여 웹툰 제작 앱을 만들더군요.





저도 나름 빠른 기술 발전에 적응했다고 생각했는데 보고 헉 소리가 나왔습니다.

바이브 코딩과 AI의 빠른 발전 속도로 인하여 ‘생산물’이 제 생각보다 더 빠르게 나오고 있는 거 같습니다.


최근 한국의 취업 메타가 굉장히 빠르게 변하고 있다는 말을 주변에서 많이 듣습니다.


10년 전엔 공시나 행시가 인기가 많았다 시들었고

그 뒤엔 개발이 인기를 끌어 컴공이 확 떴다가 AI 때문에 탈개발 하고


지금은 또 전문직 열풍이죠?


얼마 전 몇 년 안에 신규 채용이 30~40% 줄어들 가능성이 높다는 보고서를 읽었는데.


이미 사회생활을 하고 있는 30~50대를 제외한 10~20대는

법적으로 사람을 반드시 고용해야 되는 자리를 가거나 아니면 공직 계열을 가야 될 거 같습니다.


현재 취업난 문제는 경제 문제도 있지만 ‘취업 유발 계수’는 항상 10년마다 반 토막 나고 있었습니다.

이것은 로봇과 자동화의 영향이며 앞으로 10년 후의 미래는 현재 고용 시장보다 더 심각할 수 있습니다.


기술의 급진적 발전으로 인한 풍요를 믿는다면,

최후까지 남는 건 사람을 고용 안 하고 에이전트를 통해 인건비를 아껴 결과물을 낼 수 있는 ‘1인 기업’.


알트만이 말하는 1인 유니콘 시대를 준비하는 게 어떨까요?


곧 기술적 특이점이 온다고 믿어 의심치 않습니다, 다들 수고하셨습니다.





자동등록방지

추천 비추천

102

고정닉 63

댓글 영역

전체 댓글 0
본문 보기
자동등록방지

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 말머리 제목 글쓴이 작성일 조회 추천
- 설문 내 며느리, 사위로 만나면 부담스러울 것 같은 스타는? 운영자 26/03/09 - -
988250 공지 특갤 통합 공지 / 신고 및 문의 [4] ㅇㅇ갤로그로 이동합니다. 26.02.22 32182 44
353422 공지 완몰가가 궁금한 사람들은 필독 (계속 추가 예정) [26] 부패하는유전자!!!갤로그로 이동합니다. 23.09.03 29663 75
572295 공지 특갤 용어 모음집 [7] ㅇㅇ갤로그로 이동합니다. 24.11.24 13863 8
1045755 공지 특갤봇v2 신문고입니다. [179] だいき갤로그로 이동합니다. 26.03.10 13856 23
1053339 일반 간단하게 쓸라고 클로드 프로 안드로이드에서 구독했다가 조땜 ㅇㅇ(1.242) 16:51 17 0
1053338 일반 뭐지 역류기 왔었음? 삼플갤로그로 이동합니다. 16:51 18 0
1053337 일반 주3일제 해서 일자리 쪼개기 해줘 ㅇㅇ갤로그로 이동합니다. 16:51 11 0
1053336 일반 초기화내놔초기화내놔초기화내놔 ㅇㅇ갤로그로 이동합니다. 16:50 5 0
1053335 일반 제미나이 새기는 지네 회사 서비스도 모르냐!? ㅇㅊㅇ갤로그로 이동합니다. 16:49 44 0
1053334 일반 이번 9월달이 엄청 중요하지? [1] 아니사라지지마갤로그로 이동합니다. 16:47 58 0
1053333 일반 냉동인간은 아무리 해도 결국 살아있는채로 보관은 안되는듯 ㅇㅇ갤로그로 이동합니다. 16:47 17 0
1053332 일반 이제 휴일이 하루 더 늘어야한다고? 이거 선형이네.. [3] ㅇㅇ갤로그로 이동합니다. 16:45 102 0
1053331 일반 오늘은 화이트데이 파이데이 아이슈타인 생일 [10] 모래늑대검둥이.갤로그로 이동합니다. 16:45 63 4
1053330 일반 알트만이라는 5대 성인이 월요일날 태어났는데 [3] ㅇㅇ(210.217) 16:42 77 0
1053329 일반 왜 한 주에 휴일이 2일밖에 없음? [12] EXERCENS갤로그로 이동합니다. 16:41 142 0
1053328 일반 그록 검색용으로 우회 결제 하고 싶은데 [2] ㅇㅇ(119.204) 16:40 65 0
1053327 일반 생각해보니 오늘 화이트데이였네 [9] 잼지클록갤로그로 이동합니다. 16:36 131 0
1053326 일반 이거 짤 ㅈㄴ 시원하노 [9] 모래늑대검둥이.갤로그로 이동합니다. 16:35 340 3
1053325 일반 그냥 피지컬ai 보급<-이게 현실의 기준임 [3] ㅇㅇ(125.129) 16:34 128 0
1053324 일반 특이점 올 거라고 확신해도 퇴사는 하면 안됨 [2] ㅇㅇ갤로그로 이동합니다. 16:34 110 0
1053323 일반 디시 사이트가 그냥 허벌 같은데 [5] 슈퍼130클럽갤로그로 이동합니다. 16:34 106 0
1053322 일반 주말이라 행복합니다 [6] ㅇㅇ갤로그로 이동합니다. 16:33 85 3
1053320 일반 젬 AIS로 소설 쓰는거면 3.1flash 써도 충분할까? [1] ㅇㅇ(1.249) 16:33 66 0
1053319 일반 원래 난 제미나이 다용도로 썼는데 [1] ㅇㅇ(169.211) 16:32 47 1
1053318 일반 컴터머사야함? 로컬모델 Qwen 3.5 27b / 35b [9] ㅇㅇ(123.215) 16:28 131 0
1053317 일반 내가 특갤을 화나게 만들었다! [3] 저는한글이좋아요갤로그로 이동합니다. 16:27 134 0
1053316 일반 클로드는 pro 50달러 요금제를 내놔라 [1] ㅇㅇ갤로그로 이동합니다. 16:25 133 0
1053127 정보, (오픈AI) GPT-5.4 버그 수정, 이미지 이해도 향상! [7] 초존도초갤로그로 이동합니다. 14:40 1965 80
1053132 정보, 독보적인 ChatGPT 고객 유지율 ㄷㄷ [14] 메론맛콜라가먹고싶어갤로그로 이동합니다. 14:41 2488 84
1051924 정보, 샘알트만의 정치적 계획 [53] ㅇㅇ(211.241) 03:28 4022 35
1053315 일반 GPT 5.4 1M은 거지버전이고 Opus 4.6 1M은 부자버전임? [2] ㅇㅇ(211.55) 16:24 165 1
1053314 일반 특이점 하나만 믿고 2년전에 퇴사했는데 [16] ㅇㅇ(211.47) 16:23 281 2
1053313 일반 역류기 해결법 조언함 [4] 지붕이갤로그로 이동합니다. 16:21 138 3
1053312 일반 요즘엔 선형분탕 없음? [5] ㅇㅇ갤로그로 이동합니다. 16:21 87 0
1053311 일반 믿을건 얘밖에 없다.. ㅇㅇ갤로그로 이동합니다. 16:20 99 0
1053310 일반 특갤 갈드컵을 없애기 위한 완장의 책략임 [6] EXERCENS갤로그로 이동합니다. 16:20 109 6
1053308 일반 나만 역류기보면 꼴리나 ㅇㅇ갤로그로 이동합니다. 16:18 56 0
1053307 일반 구글 서버 병신인게 이해가 되는 이유 [4] ㅇㅇ갤로그로 이동합니다. 16:18 187 1
1053306 일반 잼3플 vs 5mini thinking 이랑 비교하면 누가 코딩 우위임 [1] ㅇㅇ(39.119) 16:18 46 0
1053305 일반 ? 아무일도 없는데? ㅇㅇ갤로그로 이동합니다. 16:18 41 0
1053304 일반 클코 보이스모드 되는거 알아? ㅇㅇ갤로그로 이동합니다. 16:17 38 0
1053303 일반 역류기 묶어두고 ㅇㅇ갤로그로 이동합니다. 16:17 33 0
1053302 일반 아이싯팔 AI고 특이점이고 뭐고 이거부터 해결해 [4] 방순갤로그로 이동합니다. 16:15 101 0
1053301 일반 로컬로 gpu풀가동 하는 사람있음? [3] ㅇㅇ갤로그로 이동합니다. 16:15 113 0
1053300 일반 역류기가 또 온건가요.. [6] 행복한천국으로갤로그로 이동합니다. 16:14 112 1
1053299 일반 GPT 5부터는 오히려 아첨이 아니라 반박 편향이 존재함 [1] ㅇㅇ갤로그로 이동합니다. 16:13 86 0
1053298 일반 니네 로그아웃버튼 생기면 실제로 로그아웃할거임? [8] ㅇㅇ(125.209) 16:13 120 0
1053297 일반 완장 중에 범인 있어 [9] ㅇㅇ갤로그로 이동합니다. 16:11 193 5
1053296 일반 역류기 돈내고 하는 거면 [2] ㅇㅇ(114.202) 16:10 89 0
1053295 일반 네이버 쇼핑에 클로드 12개월 저렴하게 하는 것 싹 사라졌네 [5] HuosAI갤로그로 이동합니다. 16:08 194 0
1053049 일반 티보 : 그래도 5.1-codex-max 보다 5.4 네이밍이 좋지? ㅇㅇ갤로그로 이동합니다. 14:31 706 63
1053294 일반 역류기는 모르겠고 코덱스 사용량 이상한거 같음 ㅇㅇ갤로그로 이동합니다. 16:06 61 0
1053293 일반 특갤 네임드 고닉일 가능성 절대 배제 못한다봄 [13] ㅇㅇ(59.11) 16:04 234 3
1053292 일반 제발 코덱스 사용량 초기화 한번만 더 해줘.... ㅇㅊㅇ갤로그로 이동합니다. 16:04 55 0
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

디시미디어

디시이슈

1/2