디시인사이드 갤러리

마이너 갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

[정보] Layer-Pruning & QLoRA를 활용한 모델 경량화

ㅇㅇ(182.230) 2024.04.03 02:42:21
조회 1323 추천 18 댓글 3
														
https://arxiv.org/abs/2403.17887


최근 공개된 심층 레이어의 비합리적인 비효율성(The Unreasonable Ineffectiveness of the Deeper Layers)라는 연구에서는 LLM의 심층 레이어를 절반까지 제거하는 실험을 통해 성능 하락을 최소화하면서도 모델 크기를 줄일 수 있음을 보여주고 있습니다. 주로 사용한 방법들은 Pruning과 QLoRA Finetuning이며, 모델 경량화를 통해 연산 비용을 절감하면서도 성능을 비슷하게 유지할 수 있는 모델 개발에 관심있는 분들께 도움이 될 것으로 보입니다.


심층 레이어의 비합리적인 비효율성

소개
이 연구는 대규모 언어 모델(LLM)의 연산 비용, 그 중에서도 추론 시점의 연산 비용을 줄이기 위한 간단하면서도 효과적인 레이어-가지치기(Layer-Pruning) 전략에 대한 실험들과 결과를 공유하고 있습니다. 저자들은 LLM의 더 깊은 레이어를 상당 부분 제거해도 다양한 질의응답 벤치마크에서 성능이 크게 손상되지 않는다는 것을 실증적으로 보여줍니다. 이러한 발견은 LLM의 성능이 그 깊이와 복잡성에 직접 비례한다는 기존의 생각이 사실과 다를 수 있다는 것을 알려주며, QLoRA 파인튜닝과 결합된 레이어 가지치기의 실용적이고 효율적인 접근 방식을 소개하여 모델 최적화에 대한 새로운 방향을 제시하고 있습니다.

LLM의 효율성을 개선하기 위한 현재 방법에는 가중치의 정밀도를 줄이는 양자화(Quantization), 파인튜닝 중 모델 매개변수의 작은 부분 집합만을 업데이트하는 LoRA(Low-Rank Adapters), 불필요한 매개변수나 연결을 직접 제거하는 가지치기(Pruning) 기법 등이 활용되고 있습니다. 이러한 전략은 모델의 크기 또는 학습 및 추론에 필요한 연산 자원을 줄이기 위해 노력하고 있지만, 종종 성능의 하락을 포함하는 트레이드-오프(trade-offs)가 발생하고 있습니다.

기본적인 아이디어는 모델의 모든 레이어가 모델의 성능에 동등하게 기여하지 않는다는 관찰에 기반한 레이어-가지치기(Layer-Pruning) 전략입니다. 이를 위해 먼저 (1) 가장 중요하지 않은 레이어 식별을 위해 레이어 간의 유사도를 측정하여 성능에 미치는 영향을 최소화하면서 제거할 수 있는 레이어를 결정 및 제거하고, (2) 제거된 레이어로 인한 성능 저하를 최소화하기 위해 QLoRA 기법을 사용하는 '치유(healing)' 과정을 거치는 것을 제안하고 있습니다

Layer-Pruning 및 Healing의 동작 방식
이 연구에서 제안하는 레이어-가지치기 방법의 구현은 최적의 레이어를 식별하고 모델을 치유하기 위한 두 단계 과정을 포함합니다. 1) 제거할 레이어를 결정하는 결정은 레이어 표현 간의 각도 거리 분석을 기반으로 하며, 모델의 성능에 미치는 영향을 최소화하기 위해 집중됩니다. 2) QLoRA를 사용한 후속 파인튜닝은 매개변수 효율적인 방식으로, 제거된 레이어의 부재를 보완하고 모델의 효과성을 보존하거나 심지어 향상시키는 데 중요합니다.

아래 그림 1을 통해 전체적인 전략을 먼저 간략히 살펴보겠습니다:

2ebc8876b08b6dfe6cb984b310887c38f3d40e0e74801371638f55646b12ab71d4aa5a8aa2229d6473aac7f69a84b1288b3869b5af60fd76


(a) 알고리즘 흐름도: n개의 레이어 제거 과정은, 각도 거리 d가 최소화되는 레이어 ℓ*를 찾아내어 그 위치부터 n개의 레이어를 제거하는 과정을 포함합니다. 필요한 경우, 파라미터 효율적인 파인튜닝(PEFT)을 통해 모델의 손상을 치유할 수 있습니다.


(b) 레이어 제거 도식화: 레이어 제거 과정은 ℓ부터 시작하여 ℓ+n−1에 이르는 총 n개의 레이어를 모델에서 제거하는 것을 나타냅니다. 이는 모델의 구조적 단순화를 의미합니다.


(c) 각도 거리 분석: 다양한 레이어 수 n에 대해, 레이어 블록의 시작 지점 ℓ에서의 각도 거리 d를 나타냅니다. 가장 낮은 거리(보라색 곡선)에서 가장 높은 거리(노란색 곡선)까지, 각도 거리의 최소값을 추적하는 검은색 선을 보여줍니다.


(d) 가지치기 결과: Llama-2-70B 모델의 레이어 제거 비율에 따른 성능 변화를 보여줍니다. 치유를 통해 성능이 어느 정도 복원되며(진한 파란색), 제거된 레이어 비율이 증가함에 따라 질의응답 작업의 정확도에 급격한 변화가 관찰됩니다(40%-50% 가지치기시), 반면 치유된 손실은 최소 80% 가지치기까지 점진적으로 증가합니다.


각 동작 과정을 다음과 같이 나누어 설명할 수 있습니다.


1. 각도 거리 측정

첫 번째 단계는 모델의 각 레이어 사이의 "각도 거리(angular distance)"를 측정하는 것입니다. 각도 거리는 레이어 간의 유사성을 측정하는 지표로 사용되며, 이는 레이어들이 처리하는 정보의 유사성을 나타냅니다. 레이어 ℓ과 ℓ+n 사이의 각도 거리를 계산함으로써, 모델 내에서 정보 처리가 중복되는 부분을 식별할 수 있습니다. 중복이 많은 레이어는 제거해도 모델 성능에 미치는 영향이 적다고 가정할 수 있습니다.


2. 중요하지 않은 레이어 식별

각도 거리를 기반으로, n개의 연속된 레이어 중에서 제거할 때 성능 손실을 최소화할 수 있는 레이어 블록을 식별합니다. 이를 위해, 레이어 ℓ부터 시작하여 ℓ+n까지의 레이어 블록 중 각도 거리 d가 최소화되는 지점을 찾습니다. 이 최소화된 각도 거리 d는 제거할 레이어 블록을 결정하는 데 사용됩니다. 이 과정은 모델 전체에 걸쳐 반복되어, 제거 가능한 레이어 블록을 찾아냅니다.


3. 레이어 제거 및 모델 치유(healing)


2eed8973b1846afe68bed0b446d7743ecf148a3beaede961bfe6d4bee9f0c1b49a9ab39989c8b40c768e980b985f59df51a7ddb0d4d5528ac97695314ed15e19fd42


식별된 레이어 블록을 모델에서 제거한 후, 제거 과정에서 발생할 수 있는 성능 손실을 "치유"하기 위해 파라미터 효율적인 파인튜닝이 수행됩니다. 이 과정은 주로 QLoRA와 같은 기법을 사용하여 최소한의 파라미터 업데이트로 최대한의 성능 복원을 목표로 합니다. "치유" 과정은 제거된 레이어의 기능을 나머지 레이어가 흡수하도록 하여, 모델의 성능을 원래 상태로 복원하거나 심지어 개선하는 것을 목표로 합니다.


4. 성능 검증

마지막 단계에서는 가지치기와 치유 과정을 거친 모델의 성능을 원래 모델과 비교하여 검증합니다. 이를 통해 가지치기 전략이 모델의 효율성을 향상시키면서도 성능을 유지하거나 개선할 수 있는지를 평가합니다. 다양한 벤치마크와 작업을 통한 성능 평가는 가지치기 전략의 유효성을 실증적으로 증명하는 데 중요합니다.


예를 들어, 100개의 레이어를 가진 가상의 LLM을 고려해 보겠습니다. 제안된 방법은 51번(ℓ*)부터 75(ℓ*+n−1)번째까지 25(n)개의 레이어가 전체 성능에 거의 영향을 미치지 않는다고 식별할 수 있습니다. 이렇게 25(n)개의 레이어들을 제거한 뒤, 모델은 75개의 레이어를 남깁니다. 그런 다음 QLoRA 기법으로 모델을 파인튜닝하며 (제거된 25개의 레이어를 보완할 수 있도록) 남은 75개의 레이어들을 조정합니다. 이러한 과정을 거쳐 가지치기 이전의 원래 모델과 유사하거나 더 나은 성능 수준을 유지하는 더 효율적인 모델을 만들 수 있습니다.


실험 결과


75bfd520e0826cf33bec85e6158820388bd9ba6b8db9305d2eee9b338adc7e2f71b16eb9da713e618500c2e228df6bbd9b81e72a2fb43eb74080b2a9383fc2553cc2


Llama2와 Qwen 모델군들과 Mistral / Phi 모델 등, 2.7B부터 70B에 이르는 다양한 크기의 LLM들을 대상으로 가지치기 및 치유 과정을 실험하였습니다. 실험에 사용한 모델들은 모두 32에서 80개의 원본 레이어를 가지고 있습니다. 치유 단계에서는 QLoRA를 사용하여 모델을 4비트 정밀도로 양자화한 후 Colossal Clean Crawled Corpus(C4)에서 추출한 164M 또는 328M 토큰에 대해 파인튜닝을 진행함으로써 효율적인 학습을 가능하게 했습니다. 이 모든 실험은 단일 A100 GPU에서 수행되었습니다.


성능 평가를 위해 MMLU(Massive Multitask Language Understanding)와 BoolQ라는 두 가지 벤치마크를 사용했습니다. MMLU는 일반적인 세계 지식 및 문제 해결 벤치마크로, BoolQ는 텍스트 자체로부터 답을 추론해야 하는 예/아니오 독해력 평가 벤치마크입니다.


위 그림 2의 실험 결과는 다음과 같은 주요 발견을 보여줍니다:


1. 치유에 의한 성능 개선: 레이어를 제거한 후 QLoRA를 사용한 치유 과정을 거친 모델들은, 치유 과정 없이 레이어만 제거한 경우보다 성능이 개선되었습니다. 이는 치유 과정이 가지치기로 인한 성능 저하를 어느 정도 상쇄할 수 있음을 시사합니다.


2. 가지치기 비율에 따른 성능의 강인성(robust): 실험에 포함된 모델들은 20%-55%의 가지치기 비율까지는 성능이 상당히 강인하게 유지되었습니다. 모델 가족과 크기에 따라 이 비율은 다소 변동이 있지만, 이 범위 내에서는 모델들이 여전히 유용한 성능을 보여줄 수 있음을 의미합니다.


3. 가지치기 비율이 증가함에 따른 성능 하락: 특정한 가지치기 비율을 넘어서면 모델 성능이 급격히 하락하여 임의 추측 수준으로 떨어지는 경향을 보였습니다. 이는 모델에서 제거할 수 있는 레이어의 한계를 나타내며, 과도한 가지치기가 모델의 성능을 크게 저해할 수 있음을 보입니다.

자동등록방지

추천 비추천

18

고정닉 9

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 말머리 제목 글쓴이 작성일 조회 추천
2861 설문 어떤 상황이 닥쳐도 지갑 절대 안 열 것 같은 스타는? 운영자 24/05/20 - -
455985 정보 미스트랄 8x22b성능은 오픈소스중최고 mmlu 77.3 [11] ㅇㅇ(149.88) 04.14 1489 15
456113 정보 2024년 가장 많이 사용되는 AI 플랫폼 20개는 [9] ㅇㅇ(182.230) 04.15 2516 21
455398 일반 페이팔ceo 시발년아 [16] ㅇㅇ(14.53) 04.13 2723 20
456112 일반 알트만 스캠이라면 영악한게 , 5~10년안에 올지도 모른다 [2] ㅇㅇ(118.129) 04.15 541 10
456111 정보 "기존 벤치마크 한계 도달"...새로운 LLM 평가 수단 속속 등장 [4] ㅇㅇ(182.230) 04.15 1740 13
456069 일반 와 자율주행 신기하네 [1] ㅇㅇ갤로그로 이동합니다. 04.15 996 11
455998 일반 알트만 새 트윗 개인적인 해석 [4] ㅇㅇ(112.144) 04.14 778 10
455964 정보 특이점이 온 미국의 노동시장 [11] 테이리갤로그로 이동합니다. 04.14 1014 10
455902 정보 채신논문) 어리석음을 찬양하며: 유연한 목표와 인간의 인지 능력 [6] ㅇㅇ갤로그로 이동합니다. 04.14 2701 24
455884 정보 구글 삼성결별 2025년부터 TSMC에서 생산 [6] ㅇㅇ(125.143) 04.14 751 10
455850 일반 데빈 저격영상 떳네 ㅋㅋ [15] 상한포도갤로그로 이동합니다. 04.14 3198 27
455846 일반 devin 걍 사기꾼이였네 [8] ㅇㅇ(211.36) 04.14 2808 20
455800 일반 샘 알트만 ”agi 개발완료“는 날조임 [10] ㅇㅇ(116.120) 04.14 3499 44
455774 일반 “韓 연구진이 개발한 뇌 영상 기술 …연이은 검증 실패 [9] ㅇㅇ(211.234) 04.14 2534 22
455743 일반 이런일 다들 경험해봣을건데 [22] ㅇㅇ(117.20) 04.14 2865 31
455680 일반 2025년이 7개월남았다는게 어이가없네 [8] ㅇㅇ(211.197) 04.13 3579 33
455679 정보 AI가 월스트리트에 온다, 은행 분석가 채용 2/3로 줄이는 것을 고려중 [4] ㅇㅇ(125.191) 04.13 794 10
455648 일반 영상다시봤는데 힌튼이 말을 이상하게했음 [8] ㅇㅇ(211.197) 04.13 1605 16
455619 일반 특갤에 갈수록 병신새끼들만 남는거같다고? [17] ㅇㅇ(58.127) 04.13 2875 53
455614 AI창 AI야 클레 귀엽게 그려줘 [17] ㅇㅇ갤로그로 이동합니다. 04.13 2484 24
455604 일반 내 사촌여동생(12살)한테 특이점 설명해줬음 [64] 초존도초갤로그로 이동합니다. 04.13 2779 33
455584 일반 제프리 힌튼 "AI 챗봇은 감각과 주관적 경험을 가지고 있다" [16] ㅇㅇ(1.237) 04.13 2318 24
455563 정보 빌게이츠가 말하는 AI 시대에 살아남을 직업 3가지 [20] ㅇㅇ(119.207) 04.13 3951 36
455533 정보 뇌 없이 운동 학습하고 기억하는 메커니즘 찾았다 [4] ㅇㅇ(182.230) 04.13 1379 14
455520 일반 얀르쿤은 빌라에 사는 성난 아줌마다. [25] ㅇㅇ갤로그로 이동합니다. 04.13 2075 46
455500 일반 난 왜 얀르쿤 말이 맞아보이지 [21] ㅇㅇ(39.7) 04.13 2706 45
455452 일반 오늘도 연전연승 ㅇㅇ(58.127) 04.13 1240 27
455447 정보 삼성, 갤럭시 S22·21에도 AI 일부 적용 [2] ㅇㅇ(182.230) 04.13 2367 24
455442 정보 오픈AI, 기업 시장 확장 위해 MS와 경쟁 불사 [2] ㅇㅇ(182.230) 04.13 1303 20
455441 정보 오픈AI, 유출 혐의로 연구원 2명 해고..."효과적인 이타주의 연관" [8] ㅇㅇ(182.230) 04.13 1403 18
455438 정보 메타가 공개한 AGI로 가는 방법, 'V-제파'란 [13] ㅇㅇ(182.230) 04.13 2029 30
455436 정보 메타, AI의 ‘현실 이해' 돕는 오픈 소스 데이터셋 출시 [2] ㅇㅇ(182.230) 04.13 800 13
455435 정보 그록 1.5v 발표 [14] 특술람갤로그로 이동합니다. 04.13 1549 28
455434 정보 "로봇이 일자리를 빼앗는다는 것은 '신화'에 불과" [7] ㅇㅇ(182.230) 04.13 1839 17
455433 정보 아마존 "생성 AI는 인터넷 이후 최고 기술"...앤드류 응 이사회 합류 [4] ㅇㅇ(182.230) 04.13 1063 13
455432 정보 생추어리, 자동차 부품 생산에 AI 로봇 투입 파트너십 [1] ㅇㅇ(182.230) 04.13 473 15
455430 정보 애플, AI 강화 위해 'M4' 칩 조기 업그레이드 [3] ㅇㅇ(182.230) 04.13 1062 18
455428 정보 MS, 군사용 도구로 오픈AI '달리' 판매 시도 [1] ㅇㅇ(182.230) 04.13 190 10
455415 일반 개발자 근들갑보다 특이쭝이들 조울증이 더 꼴보기 실어여 ㅇㅅㅇ [19] ㅇㅇ(122.36) 04.13 1385 41
455397 AI창 샘 알트만 디스곡 만들어 줘 [5] ㅇㅇ갤로그로 이동합니다. 04.13 1333 30
455396 정보 Cognition의 Devin으로 알아보는 AI업계의 과대광고 [17] ㅇㅇ(218.53) 04.13 1574 55
455381 일반 부자들도 역노화 포기한것같다 [10] ㅇㅇ(125.180) 04.13 1915 14
455363 일반 테슬라, 첨단 휴머노이드 로봇 특허 기술 공개 [3] ㅇㅇ(116.120) 04.13 1507 25
455357 일반 와 ㅅㅂ뭐냐 수학성능 ㅈㄴ올랐네 [17] ㅇㅇ(221.160) 04.13 2356 21
455341 일반 오픈ai가 데이터 엄청 긁어 모으고 있네 [3] ㅇㅇ갤로그로 이동합니다. 04.13 1964 26
455340 일반 전 PayPal CEO "gpt5는 정말 놀라운 순간이 될 것" [25] 특술람갤로그로 이동합니다. 04.13 2677 35
455335 일반 Mistral AI CEO "나는 AGI를 믿지 않는다" [10] 특술람갤로그로 이동합니다. 04.13 1896 23
455328 일반 특갤말투로 해달라니까 탈옥됐다 [9] ㅇㅇ(14.36) 04.13 2100 40
455315 일반 이새끼 뭐임?? [11] ㅇㅇ갤로그로 이동합니다. 04.13 1513 23
455278 일반 내가 믿고 거르는 기술소식 4가지 [43] ㅇㅇ(183.106) 04.12 3545 109
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2