AI 모델이 더 오래, 더 많이 생각하면 더 정확해진다는 것은 지금까지 당연한 상식이었다. 그런데 2026년 4월 미국 일리노이대학교 어바나-샴페인(University of Illinois Urbana-Champaign)과 중국 칭화대학교(Tsinghua University) 연구팀이 발표한 논문은 이 상식을 정면으로 뒤집었다. 연구팀이 제안한 배치드 컨텍스추얼 강화학습(Batched Contextual Reinforcement, BCR)은 AI가 문제를 푸는 데 쓰는 토큰(token, AI가 텍스트를 처리하는 기본 단위)을 최대 62.6% 줄이면서도 정확도가 오히려 높아지는 현상을 데이터로 증명했다. 추론 비용과 성능이 동시에 개선되는 이 발견은 AI 서비스를 운영하는 기업과 AI를 실무에 활용하는 개인 모두에게 직접적인 의미를 갖는다.
그림 1.태스크 스케일링 법칙을 보여주는 그래프
그림 1.태스크 스케일링 법칙을 보여주는 그래프
AI의 과잉 사고, 추론을 망치는 원인이었다
대규모 언어 모델(Large Language Model, LLM)이 수학 문제를 풀 때 보이는 전형적인 패턴이 있다. 하나의 풀이 방법을 찾았음에도 "잠깐, 다시 확인해볼게요(wait, let me re-check...)"처럼 이미 옳은 계산을 반복 검증하거나, 전혀 필요 없는 전략 탐색을 되풀이한다. 연구팀은 이를 메타인지 루프(metacognitive loop)라고 부른다. 메타인지 루프란 AI가 이미 올바른 답을 향해 진행하고 있음에도 스스로를 반복 점검하는 불필요한 사고 과정을 말한다.
이 현상은 단순한 비효율의 문제가 아니었다. 논문에 따르면 기존 방식으로 학습된 베이스라인(baseline, 비교 기준 모델)이 수론(Number Theory) 문제를 풀 때 무려 32,677개의 토큰을 소비하며 반복적인 비수학적 문자열을 출력하다가 결국 유효한 답을 내지 못한 사례가 기록되어 있다. 반면 BCR 방식으로 훈련된 모델은 동일한 문제를 2,692개의 토큰만으로 정확하게 해결했다. 토큰의 91.8%를 절약하면서 정답률은 오히려 높아진 것이다. 이 사례는 지나친 말이 추론 능력을 실제로 저하시킨다는 것을 보여주는 구체적인 증거다.
AIME25 정확도 13.3%포인트 상승, 토큰은 최대 62.6% 감소
BCR(배치드 컨텍스추얼 강화학습)의 구조 자체는 단순하다. AI 모델에게 하나의 문제가 아니라 N개의 문제를 동시에 하나의 컨텍스트 창(context window, AI가 한 번에 처리할 수 있는 텍스트 범위) 안에서 풀게 한다. 이때 전체 답변에 사용할 수 있는 토큰 총량은 고정되어 있다. 앞 문제에 토큰을 많이 쓰면 뒤 문제를 풀 여유가 줄어드는 구조다. 보상은 오직 각 문제의 정답률만으로 계산하며, 토큰 수에 대한 별도 패널티는 없다.
이 설계는 AI가 스스로 자원 배분 전략을 학습하도록 만드는 암묵적 예산(implicit budget) 메커니즘이다. 별도의 길이 감독 신호 없이 문제 간 경쟁 구조만으로 효율이 자연스럽게 유도된다.
실험 결과는 명확했다. AIME25(미국 수학 초청 시험 2025, 올림피아드 직전 단계의 고난이도 수학 대회), AMC23, Minerva, MATH-500, Olympiad 등 5개 주요 수학 벤치마크에서 측정한 결과, BCR 방식으로 훈련된 Qwen3-4B(4B는 40억 개의 파라미터를 가진 모델) 모델은 기존 추론 방식 대비 5개 벤치마크 전부에서 정확도가 향상되었다. AIME25에서는 정확도가 기존 70.0%에서 83.3%로 13.3%포인트 상승했고, 토큰 사용량은 15.8% 줄었다. 1.5B 규모의 소형 모델에서는 토큰 절감 폭이 더욱 커져 최대 62.6%에 달했다. 이 수치가 하루에 수백만 건의 추론 요청을 처리하는 서비스에서 누적되면, API 비용의 수십 퍼센트가 절감될 수 있다.
그림 2. BCR 훈련 구조 개요도
그림 2. BCR 훈련 구조 개요도
문제를 많이 쌓을수록 효율이 높아지는 태스크 스케일링 법칙
BCR 연구의 핵심 발견 중 하나는 태스크 스케일링 법칙(task-scaling law)이다. 태스크 스케일링 법칙이란 동시에 처리하는 문제 수 N이 증가할수록 문제당 토큰 사용량이 단조롭게 감소하는 현상을 말한다. 이는 배치 크기(batch size)가 커질수록 처리량이 높아지는 고전적인 컴퓨팅 원리와 유사한, AI 추론의 새로운 조절 차원이다.
베이스라인 모델과 BCR 모델의 차이는 N이 커질수록 더욱 선명해진다. 기존 모델은 AMC23 벤치마크에서 N=1일 때 85.0%였던 정확도가 N=5로 늘어나자 22.5%로 급락했다. 74%의 정확도 하락이다. 반면 BCR 모델은 같은 조건에서 87.5%에서 50.0%로 낮아지는 데 그쳤다. 43% 하락으로, 자원 압박 하에서도 훨씬 완만하게 성능이 유지된다. 더 주목할 점은 N=4일 때 BCR 모델이 AIME25에서 베이스라인보다 토큰을 75% 적게 사용했다는 것이다. N이 커질수록 BCR과 베이스라인의 효율 격차는 더 벌어진다.
이 결과는 N을 인퍼런스(inference, AI가 실제 답을 생성하는 과정)의 조절 가능한 손잡이로 활용할 수 있다는 것을 의미한다. 처리 속도와 비용이 중요한 상황에서는 N을 높여 토큰을 절약하고, 최고 정확도가 필요한 상황에서는 N=1로 설정하면 된다. 성능 저하가 예측 가능하고 완만하게 이루어지기 때문에 실제 서비스 배포에서 신뢰할 수 있는 선택지가 된다.
인간 전문가처럼 압박 속에서 자기조절을 배운 AI
BCR 모델이 효율을 높인 방식은 인간 전문가가 시간 압박 속에서 사고하는 방식과 유사하다. 논문의 정성 분석에 따르면, BCR 훈련을 거친 모델은 네 가지 압축 메커니즘을 자발적으로 학습했다. 이미 올바른 접근법을 찾았을 때 불필요한 재확인을 멈추는 것이 첫 번째다. 여러 전략을 탐색하지 않고 가장 효과적인 방법을 바로 선택하는 것이 두 번째다. 수학적으로 꼭 필요한 검증은 유지하되 중복 검증만 제거하는 것, 그리고 무제한 탐색으로 이어지는 파국적 퇴행(catastrophic degeneration)을 방지하는 것이 나머지 두 가지다.
이 모든 변화는 별도의 효율성 보상 신호 없이 발생했다. 연구팀은 이를 창발적 자기조절 효율(emergent self-regulated efficiency)이라고 명명했다. AI 모델이 이미 잠재적으로 고밀도 추론 능력을 보유하고 있었으나 단일 문제 학습 환경에서는 이 능력이 활성화되지 않았던 것이다. BCR이 만들어낸 자원 경쟁 구조가 그 잠재력을 끌어냈다.
연구팀은 명시적 길이 패널티(length penalty, 토큰을 많이 쓸수록 점수를 깎는 방식)와의 비교 실험도 수행했다. 결과는 명확했다. 명시적 패널티 방식은 훈련 붕괴(training collapse)를 일으켜 정확도를 0에 가깝게 떨어뜨렸다. 패널티가 정확도 보상과 반대 방향으로 작용하는 적대적 경사(adversarial gradient)를 만들어내기 때문이다. BCR의 고정 예산은 토큰에 벌을 주지 않고 단지 한계를 설정하기만 한다. 이 작은 차이가 훈련 안정성을 근본적으로 바꿨다.
병목은 모델 능력이 아니라 훈련 구조일 수 있다
이 논문의 핵심 주장은 "AI가 비효율적으로 추론하는 것은 능력의 문제가 아니라 훈련 방식의 문제"라는 것이다. 단일 문제 학습이라는 표준 환경이 과잉 사고를 구조적으로 장려해왔다는 해석이다. 이 관점이 맞다면, 더 크고 비싼 모델을 만드는 것보다 훈련 환경을 재설계하는 것이 효율 개선의 더 직접적인 경로일 수 있다.
다만 이 연구는 수학 추론에 한정되어 있으며, 코드 생성이나 과학 추론처럼 다른 영역에서도 동일한 법칙이 성립할지는 아직 확인되지 않았다. 7B~70B 규모의 더 큰 모델로 확장했을 때도 같은 방향으로 작동할 가능성은 있지만, 이 역시 추가 검증이 필요하다. BCR이 보여준 원리, 즉 환경 구조를 바꾸는 것만으로도 잠재 능력을 끌어낼 수 있다는 방향성이 더 넓은 AI 훈련 패러다임에 어떤 영향을 줄지는 두고 볼 필요가 있다.
FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)
Q. BCR(배치드 컨텍스추얼 강화학습)은 어떤 기술인가요? BCR은 AI 언어 모델에게 하나의 문제 대신 여러 문제를 동시에 풀도록 학습시키는 훈련 방식입니다. 제한된 토큰 예산 안에서 여러 문제를 함께 해결하게 하면, AI가 자연스럽게 각 문제에 필요한 만큼만 사고하는 효율적 추론 습관을 갖게 됩니다. 별도의 길이 패널티 없이도 토큰 사용량을 최대 62.6%까지 줄일 수 있습니다.
Q. 기존 AI 모델은 왜 토큰을 낭비했나요? 기존 단일 문제 학습 방식에서는 한 문제에 토큰을 아무리 많이 써도 다른 문제에 영향이 없습니다. 이 구조가 이미 옳은 답을 반복 검증하거나 불필요한 전략 탐색을 되풀이하는 메타인지 루프를 만들어냈습니다. BCR은 문제 간 자원 경쟁 구조를 만들어 이 낭비를 자연스럽게 제거합니다.
Q. 이 기술이 실제 AI 서비스 이용에 어떤 영향을 주나요? BCR 방식으로 훈련된 모델은 동일한 정확도를 훨씬 적은 비용으로 제공할 수 있습니다. AI API를 대량으로 활용하는 기업이라면 동일 예산으로 더 많은 추론 요청을 처리할 수 있고, 서비스 응답 속도도 빨라질 수 있습니다. 추론 모델 배포 비용을 결정하는 새로운 차원이 열린 것으로, 향후 AI 서비스 요금 구조에도 영향을 줄 수 있습니다.
기사에 인용된 논문 원문은 arXiv에서 확인할 수 있다. 리포트명: Batched Contextual Reinforcement: A Task-Scaling Law for Efficient Reasoning 이미지 출처: AI 생성 콘텐츠 해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.