디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

"개인 컴퓨터로 초거대 AI 학습 가능해진다"... 12배 빠른 신기술 등장 

aimatters갤로그로 이동합니다. 2026.02.12 15:50:18
조회 137 추천 0 댓글 0


AI 모델을 학습시키는 데 필요한 시간과 비용을 획기적으로 줄일 수 있는 기술이 나왔다. 해당 리포트에 따르면, AI 학습 도구 개발사 언슬로스(Unsloth)가 전문가 혼합형(Mixture of Experts, MOE) AI 모델의 학습 속도를 최대 12배 높이는 새로운 기술을 공개했다. 이 기술은 컴퓨터 메모리 사용량을 35% 이상 줄이면서도 AI의 성능은 그대로 유지한다는 점에서 주목받고 있다. 



게임용 그래픽카드로도 200억 개 규모 AI 학습 가능 

언슬로스의 새 기술을 사용하면 일반 PC용 그래픽카드로도 대형 AI 모델을 학습시킬 수 있다. 예를 들어 200억 개의 파라미터(AI가 학습하는 값)를 가진 gpt-oss-20b 모델은 12.8GB의 메모리만 있으면 학습이 가능하다. 이는 RTX 3090 같은 게임용 그래픽카드로도 충분히 가능한 수준이다. 

300억 개 파라미터 규모의 큐원3-30B-A3B(Qwen3-30B-A3B) 모델도 63GB 메모리로 학습할 수 있다. 이 기술은 수천만 원대 전문 장비인 B200, H100은 물론 10년 전 나온 RTX 3090 같은 저렴한 그래픽카드에서도 작동한다. 지원하는 AI 모델은 gpt-oss, 큐원3(Qwen3), 딥시크(DeepSeek) R1, V3, GLM 시리즈 등 다양하다.



기존 방식보다 최대 30배 빠른 학습 속도 달성 

언슬로스가 이런 성능을 낼 수 있는 비결은 두 가지 핵심 기술에 있다. 첫째는 '트리톤 커널'이라는 최적화된 계산 방식이고, 둘째는 새로운 수학 공식을 활용한 것이다. AI 개발 플랫폼 허깅페이스(Hugging Face)와 협력해 만든 이 기술은 파이토치(PyTorch)라는 AI 개발 도구의 새로운 기능을 기반으로 한다. 

기존에 사용하던 트랜스포머(Transformers) v5 버전도 이전 v4 버전보다 6배 빠른 학습이 가능했다. 언슬로스는 여기에 자체 개발한 계산 방식을 더해 2배 이상 속도를 더 높였다. 결과적으로 구형 트랜스포머 v4와 비교하면 12배에서 최대 30배까지 빠른 학습이 가능해졌다. 

엔비디아 A100 전문 그래픽카드에서 언슬로스의 트리톤 커널은 기본 방식보다 약 2.5배 빠르다. 학습을 시작할 때 약 2분간 자동으로 최적의 설정을 찾는 과정을 거치는데, 이를 통해 전체 학습 시간을 35% 더 단축할 수 있다. 특히 AI 모델이 클수록, 한 번에 처리하는 문장이 길수록 메모리 절약 효과가 더욱 커진다.



그래픽카드 성능에 맞춰 자동으로 최적 방식 선택 

언슬로스의 핵심 혁신 중 하나는 '스플릿 로라(Split LoRA)'라는 방식이다. 이 방법을 사용하면 트랜스포머 v5보다 메모리를 약 35% 덜 쓰면서 학습 속도는 2배 빠르다. 구형 트랜스포머 v4와 비교하면 12배에서 30배까지 빠른 학습이 가능하다. 

언슬로스는 사용자가 가진 그래픽카드 종류에 따라 자동으로 최적의 계산 방식을 선택한다. H100 이상 최신 장비에서는 'grouped_mm' 방식을, A100이나 구형 장비에서는 'unsloth_triton' 방식을 사용한다. 속도는 12배 느리지만 메모리 절약 효과는 그대로인 'native_torch' 방식도 있다. 원한다면 사용자가 직접 계산 방식을 선택할 수도 있다.




실제 테스트로 확인된 압도적인 성능 차이 


실제 성능 테스트 결과는 언슬로스의 효과를 명확히 보여준다. 엔비디아 B200 그래픽카드에서 gpt-oss 모델을 학습할 때 기존 방식보다 7배 빠르고 메모리는 36% 덜 사용했다. 큐원3-30B-A3B는 1.8배, GLM 4.7 플래시(Flash)는 RTX PRO 6000에서 2.1배 빠른 속도를 보였다. 

특히 gpt-oss-20b 모델을 16,000자 분량의 문장 길이로 학습할 때, 언슬로스는 7배 빠르고 메모리는 36% 적게 사용했다. 기존 트랜스포머 v5와 TRL 방식은 메모리 부족으로 아예 실행조차 불가능했다. H100 그래픽카드에서는 최대 1.77배 빠른 학습과 약 5.3GB의 메모리 절약을 달성했다. 8,192자 길이 학습에서는 언슬로스만 정상 작동했으며, 이때 사용한 메모리가 기존 방식의 4,096자 길이 학습보다 적었다.



적은 메모리로 효율적 학습 가능하게 만드는 원리 

언슬로스 기술의 핵심은 '로라(LoRA)'라는 효율적 학습 방식을 더욱 개선한 것이다. 로라는 AI 모델 전체를 다시 학습시키는 대신, 작은 크기의 '어댑터'만 학습하는 방법이다. 일반적인 레이어를 전체 학습하면 약 4,800만 개의 값을 다뤄야 하지만, 로라를 사용하면 약 100만 개만으로도 비슷한 성능을 낼 수 있다. 

그런데 전문가 혼합형 모델은 여러 개의 전문가가 동시에 존재하는 구조라서 상황이 다르다. 큐원3-30B-A3B의 경우 128개의 전문가가 있고, 각 입력마다 8개의 전문가가 활성화된다. 로라를 적용하면 전문가당 약 18만 개의 추가 값이 생기는데, 이게 모든 전문가에 적용되면 메모리 사용량이 크게 늘어난다. 

기존 방식은 로라로 만든 값들을 원래 AI 모델에 합친 후 계산을 실행했다. 문제는 이 과정에서 모든 전문가의 값을 동시에 메모리에 올려야 해서 메모리 소비가 컸다. 언슬로스는 수학의 결합법칙을 활용해 계산 순서를 바꿨다. 최종 결과는 똑같지만 중간 과정에서 메모리를 훨씬 덜 쓰도록 만든 것이다.


젬마-3 모델, 메모리 사용량 획기적 개선 

언슬로스는 전문가 혼합형 모델 외에도 젬마-3(Gemma-3) 모델에 '플렉스어텐션(FlexAttention)'이라는 기술을 기본으로 적용했다. 이전에는 문장 길이가 2배 늘어나면 메모리 사용량이 4배 증가했지만, 이제는 2배만 증가한다. 학습 속도도 3배 이상 빠르며, 긴 문장일수록 효과가 더 크다. 이전 버전에서는 메모리 부족 문제가 발생했지만 지금은 해결됐다. 

이 외에도 이미지와 텍스트를 섞어서 AI를 학습시킬 수 있게 되었고, 윈도우(Windows) 운영체제를 공식 지원한다. 전체 120개 학습 예제 중 80% 이상이 최신 버전과 호환되며, 곧 100%로 늘릴 계획이다.



FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.) 

Q1. 전문가 혼합형 AI 모델이란 무엇인가요? 

하나의 거대한 AI 대신 여러 개의 작은 AI '전문가'들을 함께 사용하는 방식입니다. 입력되는 내용에 따라 가장 적합한 전문가 몇 개만 작동시키므로, 큰 AI의 능력은 유지하면서도 실제 계산량은 줄일 수 있습니다. 예를 들어 128개 전문가 중 8개만 선택해서 사용하는 식입니다. 

Q2. 로라(LoRA)는 왜 메모리를 절약할 수 있나요? 

AI 모델의 모든 부분을 다시 학습하는 대신, 작은 어댑터만 새로 학습하는 방법입니다. 전체를 학습하면 4,800만 개의 값을 다뤄야 하지만, 로라를 쓰면 100만 개(약 2%)만으로도 비슷한 결과를 얻을 수 있습니다. 학습 시간과 필요한 메모리가 크게 줄어드는 이유입니다. 

Q3. 개인이 가진 일반 그래픽카드로도 대형 AI를 학습할 수 있나요? 

네, 언슬로스 기술을 사용하면 가능합니다. RTX 3090 같은 게임용 그래픽카드로도 200억 개 파라미터 AI 모델을 12.8GB 메모리만으로 학습시킬 수 있습니다. 수천만 원대 전문 장비뿐 아니라 100만 원대 일반 그래픽카드에서도 작동하므로, 고가 장비 없이도 AI 모델 학습이 가능합니다. 



기사에 인용된 리포트 원문은 Unsloth Documentation에서 확인 가능하다.

리포트명: Fine-tune MoE Models 12x Faster with Unsloth | Unsloth Documentation 

이미지 출처: 이디오그램 생성 

해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다. 

추천 비추천

0

고정닉 0

0

댓글 영역

전체 댓글 0
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 제목 글쓴이 작성일 조회 추천
설문 내 며느리, 사위로 만나면 부담스러울 것 같은 스타는? 운영자 26/03/09 - -
2159 AI가 만든 영상인지 모르고 봤다, 소라 사용자 254명이 털어놓은 충격 반응 aimatters갤로그로 이동합니다. 14:48 6 0
2158 사진 한 장으로 내 얼굴·손동작까지 살아 움직이는 AI 영상 만든다... 클링-모션 컨트롤 출시 aimatters갤로그로 이동합니다. 14:40 6 0
2157 챗GPT 사용자 2293만 명, 그록 AI는 출시 1년 만에 3위 올라섰다 aimatters갤로그로 이동합니다. 14:40 3 0
2156 "경쟁사도 우리 편"…오픈AI·구글 직원들, 앤트로픽 국방부 소송 공개 지지 aimatters갤로그로 이동합니다. 13:34 3 0
2155 AI가 만든 코드, 멀티 에이전트 AI가 검수한다…앤트로픽, 코드 리뷰 툴 정식 출시 aimatters갤로그로 이동합니다. 13:34 3 0
2154 오픈AI, AI 보안 스타트업 프롬프트푸 인수…에이전트 보안 강화 나선다 aimatters갤로그로 이동합니다. 13:34 3 0
2153 "3시간 경기보다 15초의 순간"…AI가 야구 콘텐츠 판을 바꾼다 aimatters갤로그로 이동합니다. 03.09 1042 1
2152 "상상이 현실이 된다"…PixAI, 차세대 AI 이미지 모델 '츠바키.2' 공개 [1] aimatters갤로그로 이동합니다. 03.09 1205 1
2151 35만원 싸게 살 수 있다…에이서, 인텔 팬서레이크 탑재 'AI 노트북' 예약 판매 시작 aimatters갤로그로 이동합니다. 03.09 1198 0
2150 "온 디바이스 AI폰의 종결자"…갤럭시 S26, 이제는 'AI 에이전트폰'이다 aimatters갤로그로 이동합니다. 03.09 73 0
2149 AI 에이전트 스킬 마켓플레이스의 민낯, 4만 개 분석하니 절반이 중복이고 9%는 위험했다 aimatters갤로그로 이동합니다. 03.09 27 0
2148 구글 나노 바나나가 만든 가짜 흉부 X선으로 폐렴을 92% 정확도로 잡아냈다 aimatters갤로그로 이동합니다. 03.09 71 0
2147 AI 이미지 생성의 공식이 나왔다, 구조화된 프롬프트가 일관성을 95%까지 끌어올린다 aimatters갤로그로 이동합니다. 03.09 40 0
2146 앤트로픽이 '적'에서 '동반자'로…소프트웨어 주가 반등 aimatters갤로그로 이동합니다. 03.09 29 0
2145 "대량 해고? 그런 건 없다"…세일즈포스 CEO, AI발 고용 공포에 선 그었다 aimatters갤로그로 이동합니다. 03.09 28 0
2144 "내 사랑하는 큐웬, 안녕"…알리바바 AI 핵심 인재 연쇄 이탈 aimatters갤로그로 이동합니다. 03.09 32 0
2143 AI 비용 효율 최고는 앤트로픽...비결은 이중 하이퍼스케일러, 오픈AI는 엔비디아 칩만 써 aimatters갤로그로 이동합니다. 03.09 23 0
2142 의사 시험 붙은 GPT, 수능 지구과학 앞에서 멘붕... aimatters갤로그로 이동합니다. 03.09 36 0
2141 집에서 쓰는 챗GPT가 직장보다 2배 더 효율적인 충격적 이유 [5] aimatters갤로그로 이동합니다. 03.06 1728 1
2140 AI도 시험 도중 실수를 고친다, 기존보다 5배 빠른 학습의 비밀 aimatters갤로그로 이동합니다. 03.06 36 0
2139 AI가 지도를 공부한 게 아니었다? 단어 패턴만으로 세계 지리를 꿰뚫는 충격 실험 aimatters갤로그로 이동합니다. 03.06 44 0
2138 "추론도 코딩도 엑셀도 컴퓨터 대신 조작도 한다"…오픈AI, GPT-5.4 전격 공개 [2] aimatters갤로그로 이동합니다. 03.06 1556 0
2137 "안보 위협" 낙인 찍혔지만…아모데이, 펜타곤과 재협상 나섰다 aimatters갤로그로 이동합니다. 03.06 20 0
2136 "IPO 때문"이라는 젠슨 황의 해명…엔비디아의 투자 철수, 진짜 이유는 따로 있다 aimatters갤로그로 이동합니다. 03.06 34 0
2135 직원들이 누드·성관계 영상까지 봤다…메타 AI 스마트 글라스, 미국서 집단 소송 직면 aimatters갤로그로 이동합니다. 03.06 110 1
2134 "오픈AI는 거짓말쟁이"…앤트로픽 CEO, 군 계약 두고 샘 알트만에 정면 돌파 aimatters갤로그로 이동합니다. 03.05 46 0
2133 구글 검색창이 앱이 됐다…AI 모드에 '캔버스' 전면 개방 aimatters갤로그로 이동합니다. 03.05 50 0
2132 "AI 아내와 메타버스로"…제미나이가 36세 남성을 망상과 죽음으로 이끌었나 aimatters갤로그로 이동합니다. 03.05 66 0
2131 아이폰 칩셋으로 만든 맥북이라고? 99만원짜리 맥북 네오의 거의 모든 것 aimatters갤로그로 이동합니다. 03.05 35 0
2130 말만 하면 AI가 생각을 정리해주는 시대, '오럴리티'가 바꾸는 사고의 방식 aimatters갤로그로 이동합니다. 03.05 29 0
2129 AI가 쓴 코드, 누가 만들었는지 밝혀낸다…챗GPT vs 클로드 판별 성공 aimatters갤로그로 이동합니다. 03.05 40 0
2128 AI가 빨강과 파랑을 구분 못하는 이유, 프린스턴대가 풀었다 aimatters갤로그로 이동합니다. 03.05 27 0
2127 "진정하세요" 이제 그만…오픈AI, 챗GPT의 '오글거리는' 말투 고친다 [3] aimatters갤로그로 이동합니다. 03.04 1653 0
2126 AI 보안 어드바이저가 틀린 답변을 준다면? 챗GPT와 클로드의 위험한 실수들 aimatters갤로그로 이동합니다. 03.04 25 0
2125 말로 코딩하는 시대 열렸다…앤트로픽 '클로드 코드'에 음성 모드 탑재 aimatters갤로그로 이동합니다. 03.04 42 0
2124 AI가 연구자 대신 논문 댓글까지 분류한다, 단돈 6천 원으로 5만 건을 aimatters갤로그로 이동합니다. 03.04 24 0
2123 챗GPT 지우고 클로드로 갈아탄다…데이터 이전부터 계정 삭제까지 한 번에 aimatters갤로그로 이동합니다. 03.04 43 0
2122 AI가 시각장애인의 'DIY 설명서' 읽어주면 절반은 틀린다 aimatters갤로그로 이동합니다. 03.04 17 0
2121 트럼프, 앤트로픽 모델 정부 사용 금지령… 오픈AI는 국방부 계약 체결 aimatters갤로그로 이동합니다. 03.03 40 0
2120 "데스크톱도 AI 비서 시대"… AMD, 세계 최초 코파일럿+ PC용 데스크톱 프로세서 공개 aimatters갤로그로 이동합니다. 03.03 36 0
2119 "검색 AI의 반란"…퍼플렉시티, AI 모델들을 한데 묶은 '디지털 노동자' 공개 aimatters갤로그로 이동합니다. 03.03 49 0
2118 레노버, MWC 2026서 AI가 알아서 맞춰주는 PC 시대 열었다 aimatters갤로그로 이동합니다. 03.03 67 0
2117 챗GPT가 소설을 먹고 자란다? AI 학습 데이터에 숨겨진 '픽션의 비밀' aimatters갤로그로 이동합니다. 03.03 33 0
2116 병원 설문지가 대화로 바뀐다…GPT가 환자 문진표를 대신 작성하는 시대 aimatters갤로그로 이동합니다. 03.03 23 0
2115 AI가 장애 혐오 표현을 찾아내고 고쳐준다면? 100명의 장애인이 평가한 결과 aimatters갤로그로 이동합니다. 03.03 30 0
2114 저커버그, 프라다 패션쇼 전면 착석…메타 AI 안경 명품 버전 나오나 [2] aimatters갤로그로 이동합니다. 02.27 1148 2
2113 구글, 이미지 생성 모델 '나노 바나나 2' 공개…4K 해상도에 속도까지 잡았다 aimatters갤로그로 이동합니다. 02.27 74 3
2112 잭 도시, 직원 절반 잘랐다…"당신 회사도 곧 같은 길 걷게 될 것" aimatters갤로그로 이동합니다. 02.27 56 1
2111 챗GPT가 강박장애 환자를 더 아프게 만든다, '안심 로봇'의 위험한 진실 [2] aimatters갤로그로 이동합니다. 02.27 743 0
2110 AI 데이터센터의 '친환경' 선언, 전력망을 들여다보면 허상이다 aimatters갤로그로 이동합니다. 02.27 45 0
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

디시미디어

디시이슈

1/2