구글이 개발한 AI 트랜스포머 모델은 트랜스포머로 알려져 있으며, 2017년 바스와니 등이 발표한 “주의만 있으면 된다”라는 제목의 논문에서 소개된 바 있습니다. 트랜스포머 모델은 자연어 처리(NLP) 분야에 혁명을 일으켰으며 BERT, GPT, T5를 비롯한 많은 후속 모델의 기반이 되었습니다.
트랜스포머 모델의 주요 구성 요소
셀프 어텐션 메커니즘:
트랜스포머 모델의 핵심 혁신은 자기 주의 메커니즘으로, 이 모델은 문장에서 서로 다른 단어의 중요도를 상대적으로 평가할 수 있습니다.
이 메커니즘은 장거리 종속성 및 문맥 정보를 효율적으로 캡처하는 데 도움이 됩니다.
자기 주의 메커니즘은 문장에서 다른 단어의 표현에 대한 각 단어의 기여도를 결정하는 일련의 주의 가중치를 계산합니다.
다중 헤드 어텐션:
트랜스포머는 단일 주의 메커니즘을 적용하는 대신 여러 주의 헤드를 사용하여 단어 간 관계의 다양한 측면을 포착합니다.
각 주의 헤드는 독립적으로 작동하며, 그 출력은 연결되고 선형적으로 변환되어 최종 주의 출력을 생성합니다.
위치 인코딩:
트랜스포머 모델은 반복 또는 컨볼루션 레이어를 사용하지 않기 때문에 시퀀스에서 단어의 순서를 통합하는 방법이 필요합니다.
위치 인코딩은 입력 임베딩에 추가되어 시퀀스에서 각 단어의 위치에 대한 정보를 제공합니다.
이러한 인코딩은 정현파 함수를 사용하여 학습하거나 미리 정의할 수 있습니다.
피드 포워드 신경망:
트랜스포머는 위치별 피드 포워드 신경망을 사용하는데, 이 신경망은 두 개의 선형 변환과 그 사이에 ReLU 활성화가 있는 두 개의 선형 변환으로 구성됩니다.
이러한 네트워크는 각 위치에 독립적으로 동일하게 적용되어 복잡한 표현을 학습하는 모델의 능력을 향상시킵니다.
레이어 정규화 및 잔여 연결:
학습을 안정화하고 속도를 높이기 위해 각 하위 레이어(자기 주의 및 피드 포워드 레이어) 후에 레이어 정규화가 적용됩니다.
잔여 연결은 각 하위 레이어 주위에 사용되어 역전파 중에 그라디언트 흐름을 더 쉽게 만들 수 있습니다.
트랜스포머의 아키텍처
트랜스포머 아키텍처는 인코더와 디코더로 구성되며, 각각 여러 레이어(일반적으로 6개)로 구성됩니다.
인코더:
인코더는 여러 개의 동일한 레이어로 구성되며, 각 레이어에는 두 가지 주요 구성 요소가 포함되어 있습니다:
멀티 헤드 자기 주의 메커니즘.
피드 포워드 신경망.
인코더에 대한 입력은 위치 인코딩으로 보강된 단어 임베딩 시퀀스입니다.
디코더:
디코더도 여러 개의 동일한 레이어로 구성되지만 각 레이어에는 세 가지 주요 구성 요소가 있습니다:
마스크된 다중 헤드 자체 주의 메커니즘(출력 시퀀스에서 향후 위치에 주의하지 않도록 하기 위해).
인코더의 출력에 주의를 기울이는 다중 헤드 주의 메커니즘.
피드 포워드 신경망.
디코더는 이전에 생성된 토큰을 사용해 다음 토큰을 예측하면서 한 번에 한 토큰씩 출력 시퀀스를 생성합니다.
트랜스포머 모델의 장점
병렬화:
순환 신경망(RNN)과 달리 트랜스포머는 순차적 처리가 필요하지 않으므로 훈련 및 추론 중에 상당한 병렬화가 가능합니다.
확장성:
이 모델의 아키텍처는 데이터와 컴퓨팅 리소스의 증가에 따라 잘 확장되므로 수십억 개의 매개변수가 포함된 초대형 모델을 학습할 수 있습니다.
효율성:
자체 주의 메커니즘은 데이터의 장거리 종속성과 컨텍스트 관계를 효과적으로 포착합니다.
영향 및 적용 분야
자연어 처리: Transformer 모델은 기계 번역, 텍스트 요약, 질문 답변, 언어 모델링 등 다양한 NLP 작업에서 새로운 벤치마크를 세웠습니다.
파생 모델:
BERT(트랜스포머의 양방향 인코더 표현): 양방향 방식으로 단어의 문맥을 이해하도록 설계된 사전 학습된 모델입니다.
GPT(생성형 사전 훈련 트랜스포머): 일관되고 문맥과 관련된 텍스트를 생성하기 위해 설계된 모델입니다.
T5(텍스트 간 전송 트랜스포머): 모든 NLP 작업을 텍스트에서 텍스트로의 변환으로 구성하여 광범위한 작업을 위한 통합 프레임워크를 제공하는 모델입니다.
트랜스포머 모델의 도입은 AI 및 NLP 개발의 중요한 이정표가 되었으며, 더욱 발전되고 유능한 언어 모델을 위한 길을 열었습니다.
Translated with DeepL.com (free version)
--------
새삼 이거 만든 구글이 ㄹㅇ 대단하게 느껴지네
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.