디시인사이드 갤러리

마이너 갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

[정보] MoD: 트랜스포머 기반 언어 모델 최적화를 위한 접근법

ㅇㅇ(182.230) 2024.04.07 21:59:03
조회 1223 추천 20 댓글 8
														
https://arxiv.org/abs/2404.02258


Jamba 4나 Qwen1.5-MoE 4, 또는 DBRX 3 등과 같이 여러 '전문가' 블록들 중 하나 이상을 선택하여 입력 token의 처리를 진행하는 MoE(Mixture-of-Experts) 방법이 최근들어 많이 사용되고 있습니다. 이러한 MoE 방식은 방대한 LLM 중 일부를 동적으로 조절하여 연산 자원을 효율적으로 할당하면서 더 나은 성능을 보이고 있습니다.

이렇게 MoE가 여러 전문가들 중 일부를 선택하는 방식으로 '모델의 폭(width)'을 동적으로 조절했다면, 이번에 소개하는 MoD(Mixture-of-Depth)는 '모델의 깊이(depth)'를 동적으로 조절하는 접근 방식을 취하고 있습니다. 즉, 특정 토큰에 대해서 모델의 전체 레이어에 대해서 연산을 하지 않고, 일부 레이어들을 건너뛰는 방식으로 동적으로 연산을 하는 것입니다.


MoD(Mixture-of-Depths): Transformer 기반 언어 모델 연산 최적화를 위한 접근법

소개
전통적으로, 트랜스포머 모델은 입력 시퀀스의 모든 부분에 동일한 계산 자원을 할당합니다. 하지만 이번에 소개하는 MoD(Mixture-of-Depth) Transformer 논문은 Trnasformer의 특정 시퀀스 위치에 컴퓨트 자원을 동적으로 할당하고, 다른 레이어를 통해 할당을 변화시키는 시도를 합니다. 이러한 Mixture-of-Depths(MoD) 전략을 사용하기 위해 저자들은 어떤 토큰을 처리할지 결정하기 위해 top-k 라우팅 메커니즘을 사용하여 전체 연산량을 관리합니다. 이 기술은 기존 모델의 성능에 필적하거나 뛰어나면서도, 훨씬 적은 FLOPs를 요구하며, 학습 후 샘플링 동안 최대 50%의 속도 향상을 제공합니다.

74bf8271b7d76bfe68e686e21781223c6fb9014ebe6cac47a88b12bbb7bbbdcd5aa7512c323f8288a30463aee45f10dc52703be71c6993b5


Attention is All You Need 논문에 소개된 Transformer 구조


최근의 트랜스포머 모델과 LLM(Large Language Model)은 그 규모와 복잡성이 지속적으로 증가하고 있습니다. 이러한 모델들은 인간 수준의 언어 이해와 생성 능력에 접근하기 위해 수십억 개의 파라미터를 활용하며, 그 결과로 놀라운 성능을 보여주고 있습니다. 그러나, 이러한 발전에는 상당한 계산 비용과 에너지 소비가 수반되며, 모델 규모의 증가는 학습과 추론 시간을 급격히 증가시킵니다.


이는 Transformer가 입력 시퀀스의 모든 토큰에 대해서 동일한 양의 연산을 수행하고 있기 때문입니다. 하지만, 어떤 토큰은 문맥 이해에 있어 핵심적인 역할을 하지만 어떤 토큰은 상대적으로 덜 중요하는 등, 모든 토큰들이 동등한 양의 정보를 제공하지 않을 수 있다는 아이디어에서 출발을 합니다.


MoD Transformer는 각 토큰에 대해 동적으로 계산을 할당함으로써, 모델이 필요한 곳에 자원을 집중시킬 수 있게 합니다. 이는 모델의 전체적인 연산 비용을 줄이는 동시에, 중요한 토큰에 더 많은 주의를 기울임으로써 정보 처리의 효율성을 높일 수 있게 됩니다. 특히, LLM과 같은 대규모 모델에서 MoD의 접근 방식은 학습과 추론 과정에서의 시간과 자원을 절약할 수 있는 중요한 방법이 될 수 있습니다.


MoD(Mixture-of-Depths) 기법 소개
MoD 기법은 트랜스포머 레이어의 각각에서 어떤 토큰을 처리할지 동적으로 선택하는 top-k 라우팅 메커니즘을 통합합니다. 이를 통해 선택된 일부 토큰들만 전체 연산 과정을 거치며, 다른 토큰들은 레이어(들)을 건너뛰게 됩니다.

7bbed327e4d16ba33aed85e34084223c95d3a5c6601b682215016824c8a7e1031922a7463dd0d0f440336b28441e80d894e10a4e60d88a


그림1 / 좌측: MoD(Mixture-of-Depths) Transformer 개요: MoE(Mixture-of-Experts) 구조와 유사하게 라우터를 통해 연산 경로를 선택합니다. 이 때, MoE와는 다르게 표준 블럭(Self-Attention 및 MLP)을 연산할지 말지를 결정하게 됩니다. 이 때 입력 토큰이 라우터의 결정에 따라 전체 연산을 활성화하지 않는 경우, 해당 레이어의 연산을 거치지 않게 됩니다.
그림 1 / 우측: 64개 토큰으로 축소된 짧은 시퀀스에 대한 라우팅 결정 결과입니다. (X축: 시퀀스, Y축: 레이어) 보라색은 해당 레이어의 연산을 모두 진행하였으며, 주황색은 해당 레이어의 연산을 건너뛴 것입니다.

위 그림의 설명과 같이, MoD는 트랜스포머 아키텍처 내에 예측 라우터를 구현하여 각 토큰마다 레이어 연산의 진행 여부를 결정합니다. 이를 통해 연산 자원을 상대적으로 "중요한" 토큰에 집중할 수 있습니다.

MoD Transformer의 학습
MoD 트랜스포머의 학습 과정은 기본적으로 표준 트랜스포머와 유사합니다. 입력 시퀀스는 모델에 공급되고, 각 레이어를 통해 전달되면서 필요한 계산이 수행됩니다. 그러나 MoD 트랜스포머는 라우터를 통해 각 토큰이 어떤 계산 경로를 따를지 결정하는 추가적인 단계를 포함합니다.

1. 라우터 가중치 계산: 라우터는 모델의 각 레이어에서 각 토큰에 대한 가중치를 계산합니다. 이 가중치는 해당 토큰이 받아야 할 계산의 양을 나타내며, 토큰의 중요성에 기반합니다.

2. 상위 ? 토큰 선택: 라우터는 계산된 가중치를 기반으로, 각 레이어에 대해 상위 ?개의 토큰을 선택합니다. 이 토큰들은 전체 계산을 수행하는 경로로 안내됩니다.

3. 연산 경로 할당: 선택된 토큰은 표준 계산(Self-Attention 및 MLP)을 수행하는 경로로 할당됩니다. 나머지 토큰은 잔여 연결을 통해 전달되어, 추가 계산 없이 다음 레이어로 넘어갑니다.

4. 손실 계산 및 역전파: 모델의 출력이 최종 손실 함수를 통해 평가되고, 그래디언트가 모델을 통해 역전파되어 가중치를 업데이트합니다. 이 과정에서 라우터도 학습되어, 시간이 지남에 따라 더 효율적인 라우팅 결정을 내릴 수 있습니다.

MoD Transformer의 라우팅 .방식 (Routing Schemes)


2fe98075b08b3ef268e984e243d72764701a943a0f9f0ca643372932f88587c8c6cacaf22936656e79e3d9fc6dcc27fac55af45271c852


라우팅 구현은 MoD Transformer의 핵심적인 부분입니다. 저자들은 3가지 라우팅 .방식을 비교하여 Expert-Choice MoD 방식의 토큰 라우팅이 가장 나은 성능을 보이는 것을 확인하였습니다. 소개된 다른 라우팅 .방식들과의 비교를 해보겠습니다:


토큰 선택(Token-choice) 라우팅

토큰 선택 라우팅에서는 각 토큰이 자신이 거칠 경로를 스스로 선택합니다. 모델은 각 토큰에 대해 다양한 계산 경로(예: 다른 레이어 또는 처리 블록)에 대한 확률 분포를 생성하고, 이 분포에 따라 토큰을 해당 경로로 전달합니다.


토큰 선택 라우팅은 각 토큰이 가장 적합한 계산 경로를 선택할 수 있어, 매우 유연한 라우팅이 가능합니다. 또한, 모델이 각 토큰의 중요도나 문맥을 더 정밀하게 고려할 수 있어, 개별 토큰에 최적화가 가능합니다.


전문가 선택(Expert-choice) 라우팅

전문가 선택 라우팅에서는 모델이 각 경로(또는 "전문가")가 처리할 토큰을 직접 선택합니다. 이는 각 토큰의 라우터 가중치를 기반으로 상위 ?개의 토큰을 선별하는 top-? 메커니즘을 사용하여 이루어집니다.


이렇게 전문가 선택 라우팅을 하게 되면 토큰이 각 경로에 균등하게 분배될 수 있어, 연산 부하가 균형있게 분산되므로 모델의 연산 자원을 보다 효율적으로 활용할 수 있습니다. 또한, 상위 ?개의 토큰이 명확하게 결정되므로, 모델의 예측 가능성과 안정성이 향상됩니다.


전문가 선택 MoD(Expert-choice MoD)

전문가 선택 MoD는 전문가 선택 라우팅의 개념을 MoD 트랜스포머의 구조에 적용한 것입니다. 이 방식에서는 모델이 각 레이어 또는 처리 단계에 대해 상위 ?개의 토큰을 선택하고, 선택된 토큰만이 계산을 수행하는 경로를 따라 처리됩니다. 나머지 토큰은 잔여 연결을 통해 비용이 적게 드는 경로를 따릅니다.


이러한 방식은 선택된 토큰만이 계산을 수행하므로, 전체 모델의 FLOP 사용량이 크게 감소합니다. 또한, 중요한 토큰에 대해서는 전체 레이어에 대한 연산을 보장하면서도, 불필요한 연산은 최소화하여 모델의 성능을 유지하거나 향상시킬 수 있습니다. 마지막으로 라우터를 통한 동적 라우팅을 통해 모델이 입력 시퀀스의 특성에 따라 계산 자원을 유동적으로 할당할 수 있는 장점이 있습니다.


라우팅 구현 방식

라우팅의 구현은 다음 3가지 주요 단게를 통해 가능합니다:


1. 토큰 임베딩과 라우터 가중치 결정: 모델의 각 레이어에 대해, 주어진 시퀀스의 토큰 임베딩 집합이 있습니다. 각 토큰 임베딩에 대해서, 라우터는 선형 변환을 통해 해당 토큰이 연산에 참여할 가능성을 나타내는 스칼라 가중치를 계산합니다.


2. 상위 ? 가중치 결정: 토큰의 라우터 가중치 집합 R에서 β번째 가중치의 백분위 확률 Pβ을 찾습니다. 이 때 β는 모델이 각 레이어에서 처리할 토큰의 비율을 결정합니다. 따라서 라우터 가중치가 Pβ보다 큰 토큰이 연산에 참여하게 됩니다.


3. 연산 경로 선택: 각 토큰은 라우터 가중치 r과 비교하여 Pβ보다 크거나 같으면 해당 레이어의 연산을 처리하며, 작으면 다음 레이어로 직접 전달됩니다. 이를 통해 선택된 토큰에 대해서만 계산을 수행하고, 나머지 토큰은 계산 비용을 발생시키지 않는 경로를 따라 처리할 수 있게 됩니다.


이러한 라우팅 구현 시 다음과 같은 내용을 핵심적으로 고려해야 합니다:


🌑 가중치에 기반한 동적 결정: 라우팅 과정은 각 토큰의 가중치를 기반으로 동적으로 결정되며, 이는 토큰의 중요도를 반영합니다. 중요한 토큰은 더 많은 계산을 받아 모델의 성능을 최적화하는 반면, 덜 중요한 토큰은 잔여 경로를 통해 비용을 절감합니다.


🌑 계산 효율성과 성능 최적화: 이러한 라우팅 메커니즘을 통해 MoD 트랜스포머는 계산 자원을 효율적으로 사용하면서도, 모델의 성능을 유지하거나 향상시킬 수 있습니다. 특히, 계산 비용이 높은 레이어에서 중요한 토큰만을 처리함으로써 전체적인 FLOP 사용량을 줄일 수 있습니다.


🌑 구현의 단순성과 효율성: 라우팅은 선형 변환과 백분위수 계산을 통해 구현되므로, 상대적으로 단순하며 효율적입니다. 이는 모델 학습과 추론 과정에서 계산 부담을 추가하지 않으면서도, 계산 자원의 동적 할당을 가능하게 합니다.


MoD Transformer의 동작 예시

지금까지 살펴본 내용에 따라 MoD Transformer의 동작을 예시를 통해 설명하겠습니다.


예를 들어, 입력 시퀀스에 100개의 토큰이 있고, 라우터가 ?를 10으로 설정했다고 가정해 봅시다. 이 경우, 각 레이어에서 라우터는 가장 중요한 10개의 토큰을 선택하고, 이 토큰들만이 표준 계산 경로를 따라 처리됩니다.


나머지 90개의 토큰은 계산을 건너뛰고, 잔여 연결을 통해 다음 레이어로 직접 전달됩니다. 이 과정을 통해, MoD 트랜스포머는 전체 FLOP 사용량을 줄이면서도 중요한 토큰에 대해 필요한 계산을 보장합니다.


MoD Transformer의 성능 비교


학습 성능


79e4d27fbcd13ca038efd5e44e8227380c29bdf9c34c3a61b36479d2146f69de7c0b9978c75ab5dfa9f0bbc6352e43a07bcd3c3a79fb07d4


하이퍼파라미터 최적화: 12.5% 용량 라우팅 블록을 전체 주의(attention) 블록과 교차하여 배치한 MoD 트랜스포머 변형을 학습시키는 실험을 통해, 최적의 하이퍼파라미터 설정을 찾았습니다. 이 설정은 isoFLOP 분석에서 최적 기준선보다 더 나은 성능을 제공했습니다.


7de98420b3803dfe3fbdd2e14280273b42056008a6a120caaf965bd2de5609396040d478d23b69eb7cba056fbc25d87a69644df9c81f3833


계산 효율성: 특정 MoD 변형은 기존 모델 대비 더 적은 FLOP으로 동일한 성능을 달성하면서, 66% 더 빠른 처리 속도를 보였습니다.


라우팅 분석


7de98774e3806fa439ef86e04784226b745efb48c54e74e3eff6dceddcf70c5b4ba2a23b2185935dc46a075573489f943608d3194b30e4


라우팅 결정의 희소성: 12.5% 용량(capacity) 라우팅을 사용함으로써, 대부분의 토큰은 블록을 우회하고 소수의 중요한 토큰만이 블록을 통과했습니다. 이는 라우터 가중치 분포에서도 확인할 수 있으며, 네트워크는 깊이에 따라 특정 토큰을 선호하여 라우팅하기도 했습니다.


추론 성능


7ab88223b7873ba36bec85b115842764e17e044f83ac5a11d02bfcf7366f911581370b9604e3ecf5a476c0996f2f74205f576133b81efd81


자동 회귀 추론: 학습 시 비인과적(non-causal) top-? 라우팅 스킴에서 추론 시 인과적(causal) 예측 기반 접근법으로 전환하였을 때, 성능 저하가 거의 없었습니다. 이는 해당 예측 문제의 학습이 쉽고, 학습 초기부터 97% 이상의 정확도를 달성했기 때문으로 보입니다.


Mixture-of-Depths-and-Experts(MoDE) = MoD + MoE


29ed8970b58a61a53ebcd2ec138927397a3f7702814de7bf715514730b1bea885e02d42913377f90a37c58d3a1a38cf21aeed1ae4ba5f796


MoDE(Mixture-of-Depths-and-Experts)는 MoD(Mixture-of-Depths) 기법과 MoE(Mixture of Experts) 기법의 통합을 의미합니다. 이 방식은 두 가지 접근 방식의 장점을 결합하여, 트랜스포머 모델의 계산 효율성과 성능을 동시에 최적화하는 데 목적이 있습니다. MoD 방식이 각 토큰에 대해 더 깊이 또는 덜 깊이 계산을 수행하도록 선택하는 반면, MoE 방식은 다양한 "전문가" 중에서 가장 적합한 전문가를 통해 토큰을 처리합니다. MoDE는 이 두 가지 접근 방식을 통합하여, 토큰이 특정 블록을 건너뛰거나 선택적으로 더 깊은 계산을 수행할 수 있게 함과 동시에, 다양한 전문가 중에서 최적의 처리 방식을 선택할 수 있도록 합니다.


MoDE의 구현 방식

MoDE는 두 가지 주요 구현 방식을 가집니다: 단계적(Staged) MoDE통합된(Integrated) MoDE.


1. Staged MoDE(단계적 MoDE): 단계적 MoDE는 먼저 MoD 기법을 적용하여 각 토큰의 계산 경로를 결정하고, 그 다음에 MoE 기법을 적용하여 선택된 경로에서 처리될 토큰을 각각의 전문가 블록으로 라우팅합니다. 이렇게 하면, 모델은 먼저 계산의 깊이를 조절한 후, 각 단계에서 최적의 전문가를 선택할 수 있습니다.


2. Integrated MoDE(통합된 MoDE): 통합된 MoDE는 MoD와 MoE 기법을 하나의 라우팅 단계에서 통합하여 구현합니다. 즉, 토큰을 라우팅할 때 한 번의 결정으로 계산 경로의 깊이와 처리할 전문가를 동시에 선택합니다. 이 방식은 구현이 더 단순하고 효율적일 수 있으며, 토큰마다 가장 적합한 계산 경로와 전문가를 동시에 결정할 수 있는 장점이 있습니다.


MoDE의 장점


🌑 계산 효율성: MoDE는 토큰마다 필요한 계산의 양과 처리할 전문가를 동적으로 결정함으로써, 모델의 전체적인 계산 비용을 효과적으로 관리합니다.


🌑 성능 최적화: 각 토큰을 가장 적합한 계산 경로와 전문가에 할당함으로써, MoDE는 모델의 성능을 최대화합니다. 이는 특히 복잡한 문제를 해결하거나 다양한 종류의 데이터를 처리할 때 유용할 수 있습니다.


🌑 유연성과 확장성: MoDE는 다양한 모델 구조와 태스크에 적용될 수 있는 유연성을 제공하며, 모델의 계산 효율성과 성능을 동시에 향상시킬 수 있는 확장 가능한 프레임워크를 제공합니다.


MoDE는 트랜스포머 모델의 미래 발전 방향을 제시하며, 계산 비용을 최소화하면서도 모델의 성능을 극대화하는 방법을 탐색하는 연구에 중요한 기여를 합니다.

자동등록방지

추천 비추천

20

고정닉 10

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 말머리 제목 글쓴이 작성일 조회 추천
2861 설문 어떤 상황이 닥쳐도 지갑 절대 안 열 것 같은 스타는? 운영자 24/05/20 - -
412470 공지 레이 커즈와일 신간 6월 25일 발매 [29] 모브갤로그로 이동합니다. 24.01.24 7160 32
242613 공지 특갤 통합 공지 / 댓글 신고,문의 / 차단 해제 요청 [2972] 특갤용갤로그로 이동합니다. 23.08.06 38338 43
433260 공지 웬만하면 신문고에 문의 해주시면 차단 풀어드립니다 [1] 부패하는유전자!!!갤로그로 이동합니다. 24.03.06 2315 2
363220 공지 선형글 삭제 기준 [6] 특갤용갤로그로 이동합니다. 23.10.14 6970 24
375493 공지 필독) 유입 특붕이를 위한 AI 정보글 모음 (01/23) [40] ㅇㅇ(182.230) 23.11.11 12968 122
373402 공지 직업 비하, 조롱 글 30일 차단됩니다. [50] 특갤용갤로그로 이동합니다. 23.11.07 8695 79
385147 공지 구글의 AGI 분류 체계 [17] ㅇㅇ갤로그로 이동합니다. 23.11.22 8050 31
332612 공지 음모론 삭제 기준을 안내드립니다. [23] 특갤용갤로그로 이동합니다. 23.08.25 8912 30
259237 공지 특갤 용어 모음집 [6] 특갤용갤로그로 이동합니다. 23.08.09 22423 33
479548 일반 4o는 온디바이스고 ai윈도우에 탑재되는 놈이맞나봄 ㅇㅇ갤로그로 이동합니다. 00:07 26 0
479547 일반 저거 마소 AI PC를 별도로 낸다는거임? [2] ㅇㅇ(112.161) 00:07 24 0
479546 일반 그러고보니 gym인가 그거는 어케 됐냐 ㅇㅇ갤로그로 이동합니다. 00:07 11 0
479545 일반 뭔가 과도기 길꺼같지않냐? ㅇㅇ(211.204) 00:05 14 0
479544 일반 갤주 안심하고 눈감을수 있는 희소식 드디어 등장 ㅠㅠ [3] ㅇㅇ(210.106) 00:05 74 3
479543 일반 ai스튜디오가 여기 맞음? ㅇㅇ(115.139) 00:05 20 0
479542 일반 진심 아이폰 업데이트처럼 되어가고 있음 ㅋㅋㅋㅋㅋ ㅇㅇ(112.161) 00:01 76 1
479541 일반 oai가 하는말 곧대로 믿지마라 일정 연기가 일상임 ㅇㅇ갤로그로 이동합니다. 00:00 35 1
479540 일반 보닌쨩 램 32짜리 쳐 사고 전과해서 괜히샀다 생각했는데 ㅇㅇ(115.139) 05.21 31 0
479539 정보 젠슨 황 "AI 확장 중심은 'AI 공장'...델과 협력" ㅇㅇ(182.230) 05.21 47 0
479537 정보 인터넷에 퍼지는 '새우 예.수'...AI만 가득한 '죽은 인터넷' 이론 [1] ㅇㅇ(182.230) 05.21 112 0
479536 일반 Gpt3.5도 예전엔 표현이 풍부했는데 ㅇㅇ(223.39) 05.21 26 0
479535 일반 갑자기 의문인게 발표 이틀전에 섭외시도 한거면 ㅇㅇ(115.139) 05.21 37 0
479534 일반 올해는 빼박 겨울이긴 하다 그래도 여러 성과가 있었으니 ㅇㅇ(58.231) 05.21 23 0
479533 일반 발표 이틀전까지 요한슨 설득한거 보면 빼박이네 ㅇㅇ ㅇㅇ(223.62) 05.21 57 0
479532 일반 4o 온디바이스가 가능하다니 ㅇㅇ(121.128) 05.21 54 0
479531 일반 올해는 아직까지 소라 외에 큰거 온게 없네 [1] ㅇㅇ(112.161) 05.21 45 0
479530 일반 Agi가 오고있구나.. [1] 이세이미야케갤로그로 이동합니다. 05.21 82 0
479529 일반 앱 나만안됨? ㅇㅇ(14.5) 05.21 14 0
479528 일반 GPT 덧셈 가끔 나사 하나 빠지ㅡ는 거 혹시 [5] .(211.52) 05.21 46 0
479527 일반 2024년 <- 그냥 개같이 노동하면 된다 TS망상갤로그로 이동합니다. 05.21 44 0
479526 일반 노동해방 기원 481일차 ㅇㅇ(211.235) 05.21 20 0
479525 일반 Ms는 이름부터 리콜 ㅋㅋㅋ oai는 프론티어 출시 연기 ㅋㅋㅋㅋ ㅇㅇ(112.161) 05.21 74 0
479524 일반 안전테스트로 프론티어 모델 출시 연기 [10] ㅇㅇ(58.123) 05.21 199 1
479522 일반 모두들 수고했다... [3] ㅇㅇ(124.28) 05.21 158 2
479521 정보 MS, PC에서 일어난 모든 것 기억하는 '리콜' 출시 [1] ㅇㅇ(182.230) 05.21 183 0
479520 일반 영어 공부할건데 gpt3.5로도 충분할까 ?????? 아님 결제 ㄱㄱ?? [1] ㅇㅇ(180.65) 05.21 52 0
479519 일반 근데 자율주행차가 본격화 된 다음에 ㅇㅇ(115.139) 05.21 11 0
479518 정보 바이트댄스, '두바오'로 중국 AI 챗봇 중 최고 인기...수익은 없어 ㅇㅇ(182.230) 05.21 59 0
479517 일반 메타던 구글이던 존나 큰거 한방 터트려서 GPT4 밟아버렸으면 TS망상갤로그로 이동합니다. 05.21 22 1
479516 일반 gpt api에 스프레드시트 데이터를 학습? 시키는 방법없어? ㅁㄴㅇ(61.73) 05.21 19 0
479515 일반 여름 밤이 짱인 거 같음 [6] ㅇㅇ갤로그로 이동합니다. 05.21 95 0
479514 일반 그나저나 자율주행차 한국은 여전히 병신임? [2] ㅇㅇ(61.105) 05.21 35 0
479513 정보 영국, 자율주행차 법 제정…”자율주행차 사고는 제조사 책임” [6] ㅇㅇ(182.230) 05.21 110 2
479512 일반 openai때매 우울해서 한잔했다 [8] ㅇㅇ(223.38) 05.21 183 0
479511 일반 특슬람이 AI 정상회의가 언제인지도 모르냐!! [2] ㅇㅇ(1.239) 05.21 66 0
479510 일반 4o 이새끼 왜 자꾸 헛소리하냐 [3] ㅇㅇ갤로그로 이동합니다. 05.21 75 0
479509 일반 지피티 병신된거 맞는데 [3] ㅇㅇ(61.105) 05.21 85 0
479508 일반 gpt-4o보다 클로드가 더 나은데? ㅇㅇ(220.126) 05.21 48 0
479506 일반 요한슨 욕하는 글 보기 빡시네 ㅋㅋ [3] ㅇㅇ갤로그로 이동합니다. 05.21 152 3
479505 일반 말 몰던 마부들은 대체 당하고 싶어서 당했나 ㅋㅋ ㅇㅇ(58.231) 05.21 42 1
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2