엔비디아(NVIDIA)가 중국 AI 스타트업 딥시크(DeepSeaq)에서 개발한 오픈 모델 '딥시크-R1'을 자사 NIM 마이크로서비스 플랫폼에서 프리뷰로 제공한다고 발표했다.
MoE 구조로 더 방대한 학습
온라인커뮤니티
엔비디아는 3일(현지시간) 공식 블로그를 통해 "딥시크-R1을 기반으로 생성형 AI 애플리케이션 개발자들이 안정적이면서도 확장 가능한 추론을 구현할 수 있게 됐다"고 밝혔다. 특히 단일 엔비디아 HGX H200 시스템에서 초당 최대 3872개의 토큰을 전송할 수 있다고 강조해, 고성능 AI 추론 처리 능력을 보여줬다.
딥시크-R1은 최신 추론 기능을 갖춘 오픈 모델로, 질문에 대한 단순 답변 대신 여러 차례 '사고 과정을 반복'해 최적의 답을 도출하는 '에이전틱(Agetic) AI'에 적합하다는 게 엔비디아 측의 평가다.
딥시크-R1은 여러 전문가 모델(Expert Model)을 조합하는 MoE(Mixture of Experts) 구조로 만들어졌다. 기존 공개 모델에 비해 10배 많은 6710억 개의 파라미터, 최대 12만8000개 토큰을 입력받을 수 있는 거대한 컨텍스트 길이를 특징으로 한다.
이러한 대형 모델에서 실시간 추론과 높은 품질의 응답을 동시에 구현하기 위해서는 추론 과정 자체가 늘어나는 만큼(여러 번의 사고 패스), 더욱 대규모 컴퓨팅 환경이 요구된다. 엔비디아가 NVLink 기반의 H200 GPU 클러스터와 NIM 마이크로서비스 최적화를 결합해 이 문제를 해결했다고 설명하는 이유다.
딥시크-R1으로 에이전트 개발 안전·확장성 두 마리 토끼 잡는다
엔비디아는 "NIM 마이크로서비스에 딥시크-R1을 프리뷰로 공개함으로써 개발자들이 에이전틱 AI 솔루션을 빠르고 쉽게 구축할 것"이라고 기대감을 드러냈다.
기존 모델들이 단일 엔드투엔드 답변을 도출하는 데 집중했다면, 딥시크-R1은 문제를 여러 번 사고해 최상의 결과에 도달하는 방식을 채택했다는 점에서, 논리적 추론과 수학, 코딩, 언어 처리 등에 강점을 보이는 모델로 꼽힌다.
한편, 엔비디아 NIM 마이크로서비스 자체가 생성형 AI 애플리케이션에 안전성과 정확성을 높여주는 플랫폼인 만큼, 딥시크-R1과 함께 '가속 추론 + 리스크 최소화'를 동시에 노릴 수 있다는 것이 장점이다.
엔비디아 측은 "향후 더 많은 오픈 모델들을 NIM에 연결해, AI 산업 전반의 추론 효율을 끌어올릴 것"이라며 "에이전틱 AI가 요구하는 방대한 스케일을 이끌 인프라가 가속 컴퓨팅"이라고 재차 강조했다.
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.