디시인사이드 갤러리

마이너 갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

[정보] Layer-Pruning & QLoRA를 활용한 모델 경량화

ㅇㅇ(182.230) 2024.04.03 02:42:21
조회 1313 추천 18 댓글 3
														
https://arxiv.org/abs/2403.17887


최근 공개된 심층 레이어의 비합리적인 비효율성(The Unreasonable Ineffectiveness of the Deeper Layers)라는 연구에서는 LLM의 심층 레이어를 절반까지 제거하는 실험을 통해 성능 하락을 최소화하면서도 모델 크기를 줄일 수 있음을 보여주고 있습니다. 주로 사용한 방법들은 Pruning과 QLoRA Finetuning이며, 모델 경량화를 통해 연산 비용을 절감하면서도 성능을 비슷하게 유지할 수 있는 모델 개발에 관심있는 분들께 도움이 될 것으로 보입니다.


심층 레이어의 비합리적인 비효율성

소개
이 연구는 대규모 언어 모델(LLM)의 연산 비용, 그 중에서도 추론 시점의 연산 비용을 줄이기 위한 간단하면서도 효과적인 레이어-가지치기(Layer-Pruning) 전략에 대한 실험들과 결과를 공유하고 있습니다. 저자들은 LLM의 더 깊은 레이어를 상당 부분 제거해도 다양한 질의응답 벤치마크에서 성능이 크게 손상되지 않는다는 것을 실증적으로 보여줍니다. 이러한 발견은 LLM의 성능이 그 깊이와 복잡성에 직접 비례한다는 기존의 생각이 사실과 다를 수 있다는 것을 알려주며, QLoRA 파인튜닝과 결합된 레이어 가지치기의 실용적이고 효율적인 접근 방식을 소개하여 모델 최적화에 대한 새로운 방향을 제시하고 있습니다.

LLM의 효율성을 개선하기 위한 현재 방법에는 가중치의 정밀도를 줄이는 양자화(Quantization), 파인튜닝 중 모델 매개변수의 작은 부분 집합만을 업데이트하는 LoRA(Low-Rank Adapters), 불필요한 매개변수나 연결을 직접 제거하는 가지치기(Pruning) 기법 등이 활용되고 있습니다. 이러한 전략은 모델의 크기 또는 학습 및 추론에 필요한 연산 자원을 줄이기 위해 노력하고 있지만, 종종 성능의 하락을 포함하는 트레이드-오프(trade-offs)가 발생하고 있습니다.

기본적인 아이디어는 모델의 모든 레이어가 모델의 성능에 동등하게 기여하지 않는다는 관찰에 기반한 레이어-가지치기(Layer-Pruning) 전략입니다. 이를 위해 먼저 (1) 가장 중요하지 않은 레이어 식별을 위해 레이어 간의 유사도를 측정하여 성능에 미치는 영향을 최소화하면서 제거할 수 있는 레이어를 결정 및 제거하고, (2) 제거된 레이어로 인한 성능 저하를 최소화하기 위해 QLoRA 기법을 사용하는 '치유(healing)' 과정을 거치는 것을 제안하고 있습니다

Layer-Pruning 및 Healing의 동작 방식
이 연구에서 제안하는 레이어-가지치기 방법의 구현은 최적의 레이어를 식별하고 모델을 치유하기 위한 두 단계 과정을 포함합니다. 1) 제거할 레이어를 결정하는 결정은 레이어 표현 간의 각도 거리 분석을 기반으로 하며, 모델의 성능에 미치는 영향을 최소화하기 위해 집중됩니다. 2) QLoRA를 사용한 후속 파인튜닝은 매개변수 효율적인 방식으로, 제거된 레이어의 부재를 보완하고 모델의 효과성을 보존하거나 심지어 향상시키는 데 중요합니다.

아래 그림 1을 통해 전체적인 전략을 먼저 간략히 살펴보겠습니다:

2ebc8876b08b6dfe6cb984b310887c38f3d40e0e74801371638f55646b12ab71d4aa5a8aa2229d6473aac7f69a84b1288b3869b5af60fd76


(a) 알고리즘 흐름도: n개의 레이어 제거 과정은, 각도 거리 d가 최소화되는 레이어 ℓ*를 찾아내어 그 위치부터 n개의 레이어를 제거하는 과정을 포함합니다. 필요한 경우, 파라미터 효율적인 파인튜닝(PEFT)을 통해 모델의 손상을 치유할 수 있습니다.


(b) 레이어 제거 도식화: 레이어 제거 과정은 ℓ부터 시작하여 ℓ+n−1에 이르는 총 n개의 레이어를 모델에서 제거하는 것을 나타냅니다. 이는 모델의 구조적 단순화를 의미합니다.


(c) 각도 거리 분석: 다양한 레이어 수 n에 대해, 레이어 블록의 시작 지점 ℓ에서의 각도 거리 d를 나타냅니다. 가장 낮은 거리(보라색 곡선)에서 가장 높은 거리(노란색 곡선)까지, 각도 거리의 최소값을 추적하는 검은색 선을 보여줍니다.


(d) 가지치기 결과: Llama-2-70B 모델의 레이어 제거 비율에 따른 성능 변화를 보여줍니다. 치유를 통해 성능이 어느 정도 복원되며(진한 파란색), 제거된 레이어 비율이 증가함에 따라 질의응답 작업의 정확도에 급격한 변화가 관찰됩니다(40%-50% 가지치기시), 반면 치유된 손실은 최소 80% 가지치기까지 점진적으로 증가합니다.


각 동작 과정을 다음과 같이 나누어 설명할 수 있습니다.


1. 각도 거리 측정

첫 번째 단계는 모델의 각 레이어 사이의 "각도 거리(angular distance)"를 측정하는 것입니다. 각도 거리는 레이어 간의 유사성을 측정하는 지표로 사용되며, 이는 레이어들이 처리하는 정보의 유사성을 나타냅니다. 레이어 ℓ과 ℓ+n 사이의 각도 거리를 계산함으로써, 모델 내에서 정보 처리가 중복되는 부분을 식별할 수 있습니다. 중복이 많은 레이어는 제거해도 모델 성능에 미치는 영향이 적다고 가정할 수 있습니다.


2. 중요하지 않은 레이어 식별

각도 거리를 기반으로, n개의 연속된 레이어 중에서 제거할 때 성능 손실을 최소화할 수 있는 레이어 블록을 식별합니다. 이를 위해, 레이어 ℓ부터 시작하여 ℓ+n까지의 레이어 블록 중 각도 거리 d가 최소화되는 지점을 찾습니다. 이 최소화된 각도 거리 d는 제거할 레이어 블록을 결정하는 데 사용됩니다. 이 과정은 모델 전체에 걸쳐 반복되어, 제거 가능한 레이어 블록을 찾아냅니다.


3. 레이어 제거 및 모델 치유(healing)


2eed8973b1846afe68bed0b446d7743ecf148a3beaede961bfe6d4bee9f0c1b49a9ab39989c8b40c768e980b985f59df51a7ddb0d4d5528ac97695314ed15e19fd42


식별된 레이어 블록을 모델에서 제거한 후, 제거 과정에서 발생할 수 있는 성능 손실을 "치유"하기 위해 파라미터 효율적인 파인튜닝이 수행됩니다. 이 과정은 주로 QLoRA와 같은 기법을 사용하여 최소한의 파라미터 업데이트로 최대한의 성능 복원을 목표로 합니다. "치유" 과정은 제거된 레이어의 기능을 나머지 레이어가 흡수하도록 하여, 모델의 성능을 원래 상태로 복원하거나 심지어 개선하는 것을 목표로 합니다.


4. 성능 검증

마지막 단계에서는 가지치기와 치유 과정을 거친 모델의 성능을 원래 모델과 비교하여 검증합니다. 이를 통해 가지치기 전략이 모델의 효율성을 향상시키면서도 성능을 유지하거나 개선할 수 있는지를 평가합니다. 다양한 벤치마크와 작업을 통한 성능 평가는 가지치기 전략의 유효성을 실증적으로 증명하는 데 중요합니다.


예를 들어, 100개의 레이어를 가진 가상의 LLM을 고려해 보겠습니다. 제안된 방법은 51번(ℓ*)부터 75(ℓ*+n−1)번째까지 25(n)개의 레이어가 전체 성능에 거의 영향을 미치지 않는다고 식별할 수 있습니다. 이렇게 25(n)개의 레이어들을 제거한 뒤, 모델은 75개의 레이어를 남깁니다. 그런 다음 QLoRA 기법으로 모델을 파인튜닝하며 (제거된 25개의 레이어를 보완할 수 있도록) 남은 75개의 레이어들을 조정합니다. 이러한 과정을 거쳐 가지치기 이전의 원래 모델과 유사하거나 더 나은 성능 수준을 유지하는 더 효율적인 모델을 만들 수 있습니다.


실험 결과


75bfd520e0826cf33bec85e6158820388bd9ba6b8db9305d2eee9b338adc7e2f71b16eb9da713e618500c2e228df6bbd9b81e72a2fb43eb74080b2a9383fc2553cc2


Llama2와 Qwen 모델군들과 Mistral / Phi 모델 등, 2.7B부터 70B에 이르는 다양한 크기의 LLM들을 대상으로 가지치기 및 치유 과정을 실험하였습니다. 실험에 사용한 모델들은 모두 32에서 80개의 원본 레이어를 가지고 있습니다. 치유 단계에서는 QLoRA를 사용하여 모델을 4비트 정밀도로 양자화한 후 Colossal Clean Crawled Corpus(C4)에서 추출한 164M 또는 328M 토큰에 대해 파인튜닝을 진행함으로써 효율적인 학습을 가능하게 했습니다. 이 모든 실험은 단일 A100 GPU에서 수행되었습니다.


성능 평가를 위해 MMLU(Massive Multitask Language Understanding)와 BoolQ라는 두 가지 벤치마크를 사용했습니다. MMLU는 일반적인 세계 지식 및 문제 해결 벤치마크로, BoolQ는 텍스트 자체로부터 답을 추론해야 하는 예/아니오 독해력 평가 벤치마크입니다.


위 그림 2의 실험 결과는 다음과 같은 주요 발견을 보여줍니다:


1. 치유에 의한 성능 개선: 레이어를 제거한 후 QLoRA를 사용한 치유 과정을 거친 모델들은, 치유 과정 없이 레이어만 제거한 경우보다 성능이 개선되었습니다. 이는 치유 과정이 가지치기로 인한 성능 저하를 어느 정도 상쇄할 수 있음을 시사합니다.


2. 가지치기 비율에 따른 성능의 강인성(robust): 실험에 포함된 모델들은 20%-55%의 가지치기 비율까지는 성능이 상당히 강인하게 유지되었습니다. 모델 가족과 크기에 따라 이 비율은 다소 변동이 있지만, 이 범위 내에서는 모델들이 여전히 유용한 성능을 보여줄 수 있음을 의미합니다.


3. 가지치기 비율이 증가함에 따른 성능 하락: 특정한 가지치기 비율을 넘어서면 모델 성능이 급격히 하락하여 임의 추측 수준으로 떨어지는 경향을 보였습니다. 이는 모델에서 제거할 수 있는 레이어의 한계를 나타내며, 과도한 가지치기가 모델의 성능을 크게 저해할 수 있음을 보입니다.

자동등록방지

추천 비추천

18

고정닉 9

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 말머리 제목 글쓴이 작성일 조회 추천
2856 설문 주위 눈치 안 보고(어쩌면 눈치 없이) MZ식 '직설 화법' 날릴 것 같은 스타는? 운영자 24/04/29 - -
456908 일반 지금 무슨 떡밥임? [7] ㅇㅋ갤로그로 이동합니다. 04.18 268 0
456907 일반 gpt-4 왜 바보되어버렸냐? [6] 어서와요갤로그로 이동합니다. 04.18 348 1
456904 일반 가정용 로봇은 상용화까진 아직 한참 남았냐 [3] ㅇㅇ갤로그로 이동합니다. 04.18 138 0
456902 일반 AGI 당장 내놔 [2] ㅇㅇ갤로그로 이동합니다. 04.18 104 0
456901 일반 이미지개선하려고 그렇게 춤추고지랄을했는데 [4] ㅇㅇ(121.168) 04.18 280 0
456900 일반 유압식보다 강한 전기 모터로 설계했다는데 일단 지켜봐야할듯? [9] ㅇㅇ(220.121) 04.18 343 2
456899 일반 EU, “ms와 open ai 관계는 인수가 아니다” [5] ㅇㅇ(116.120) 04.18 273 3
456897 일반 로봇도 일론 방식이 옳았던건가? [12] ㅇㅇ갤로그로 이동합니다. 04.18 382 1
456896 일반 아틀라스이거 손아니냐? [10] ㅇㅇ(121.168) 04.18 400 0
456892 일반 네이버 검색중 이미지 부분 아주 좋아졌네 [3] ㅎㅎ(175.206) 04.18 174 4
456891 일반 아니 이거 웃기네 ㅇㅇ(118.33) 04.18 150 0
456890 일반 얀 르쿤의 AI관련 의견에서 감안해야 하는 점은 [33] ㅇㅇ(218.48) 04.18 1724 30
456889 일반 챗gpt 어플로 베타테스터 하는건 뭐가 다른거임? dd(39.116) 04.18 70 0
456886 일반 도라에몽 손이면 뭘 할 수 있는데 ㅇㅇ(1.244) 04.18 166 1
456885 일반 보스턴 다이나믹스는 AI가 어떻게 쓰이는지 [4] ㅇㅇ(218.48) 04.18 268 0
456883 일반 비추버튼 존나 고프면 개추 ㅋㅋ [6] ㅇㅇ갤로그로 이동합니다. 04.18 528 19
456881 일반 막상 여름되도 gpt5 안나오고 ㅇㅇ(112.166) 04.18 88 0
456880 일반 특이점 언제와!!!!!! [5] KURO갤로그로 이동합니다. 04.18 166 1
456878 일반 보스턴 새 로봇 까는 1x 부사장 [8] ㅇㅇ(211.59) 04.18 380 2
456877 일반 모든 바이러스 예방하는 범용 백신 기술 나왓다 [1] ㅇㅇ(210.106) 04.18 176 0
456876 일반 로봇이면 이게 맞지 ㅅㅂ [14] ㅇㅇ(211.227) 04.18 502 3
456873 일반 얀르쿤은 AGI만드려면 인간뇌 완전해배껴야한다는주장임? ㅇㅇ(112.185) 04.18 113 0
456871 일반 인간 뇌가 얼마나복잡하냐 [1] ㅇㅇ(112.185) 04.18 125 0
456869 AI창 보닌 와이프입니노 [5] noosphere갤로그로 이동합니다. 04.18 323 0
456868 정보 What did Koko See? [3] ㅇㅇ(222.108) 04.18 177 1
456866 정보 현대모비스, 자율주행 4단계 실증차 투입…60km 도심 내달린다 [15] ㅇㅇ갤로그로 이동합니다. 04.18 465 5
456865 일반 위자드LM 이거 받으면 됨? ㅇㅇ갤로그로 이동합니다. 04.18 108 1
456864 정보 매년 봄,아시아에서 발생하는 황사를 AI가 예측하는데 도움을 줄 수 있다 [5] ㅇㅇ갤로그로 이동합니다. 04.18 224 2
456863 일반 gpt 잘쓰는법 같은거 배울 책이나 강의 이런거 없냐 [3] ㅇㅇ(210.99) 04.18 113 1
456862 일반 뤼튼 이새끼 규제때문에 개병신 됐네 ㅇㅇ(180.230) 04.18 177 2
456861 일반 모터랑 유압은 차이 큼? [1] ㅇㅇ갤로그로 이동합니다. 04.18 117 0
456860 일반 오 뭐냐 뭐가 새로 나온 거 같네? [2] ㅇㅇ갤로그로 이동합니다. 04.18 223 0
456856 정보 벤지오 타임지 선정 [2] ㅇㅇ(125.191) 04.18 143 1
456855 일반 특붕쿤들 갑자기 왜 낙관적으로 변했어 [4] ㅇㅇ(222.97) 04.18 306 3
456854 정보 엔비디아 ai의 미래 [2] ㅇㅇ(125.191) 04.18 238 2
456853 일반 얀르쿤 스탠스바꾼거 맞음? ㅇㅇ(223.38) 04.18 107 0
456852 일반 삼성 임원 주6일제 봤음? [14] ㅇㅇ(117.111) 04.18 624 1
456851 정보 Mixtral-8x22B-v0.1 출시 [3] ㅇㅇ(125.191) 04.18 280 5
456849 일반 존버865일차 [8] alphaca갤로그로 이동합니다. 04.17 129 4
456848 일반 주4일제만 해줘도 너무나도 행복할거 같구나..... [15] Samus갤로그로 이동합니다. 04.17 528 3
456847 일반 sod 근황 [22] ㅇㅇ(220.87) 04.17 764 6
456846 일반 보스턴 다이내믹스 차세대 로봇 공개 ㄷㄷㄷ [9] 응디응디(221.148) 04.17 641 6
456845 일반 인간이 하는 일을 대체하려면 인간형 로봇이 필요할 것 [1] ㅇㅇ갤로그로 이동합니다. 04.17 125 2
456843 일반 솔직히 AGI2025라고 믿는 애들 있냐?? [30] agi2024갤로그로 이동합니다. 04.17 614 2
456842 일반 주4일제가 ai와 관련이 있냐? [7] ㅇㅇ(59.11) 04.17 282 3
456841 일반 sod 현업자폭로 입갤ㅋㅋ [25] ㅇㅇ(115.139) 04.17 995 8
456839 일반 gpt4결제했는데 원래 이렇게 대답 느리냐? [1] ㅇㅇ(1.239) 04.17 120 0
456838 일반 오늘 테슬라는 전직원의10퍼를 해고했다.jpg [7] 헬스토끼갤로그로 이동합니다. 04.17 621 8
456837 일반 아틀라스는 현대차공장에 바로 투입하나 보네 [6] ㅇㅇ(119.192) 04.17 388 3
456836 일반 김치AI는 그나마 열악한 상황에서 최대한 뽑아낸건가 [8] ㅇㅇ갤로그로 이동합니다. 04.17 307 2
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2