크래프톤-SK텔레콤, 언어 모델 공동 개발

LLM 수학 추론 성능 높이는 학습기법 개발, 적용 모델 3종 오픈소스로 공개

크래프톤-SK텔레콤, 언어 모델 공동 개발
크래프톤과 SK텔레콤은 28일 공동으로 개발한 7B(70억개 파라미터) 규모의 추론 특화 언어 모델 3종을 공개했다.

이번에 공개한 모델은 수학 문제 해결과 코드 개발에 특화된 소형 언어 모델로, 크래프톤이 독자적으로 개발한 학습기법을 적용했다. 

이 기법을 바탕으로, 해당 모델은 수학 추론 벤치마크 AIME 25에서 뚜렷한 성능 향상을 기록하며 효과를 입증했다. 

수학은 공간지각과 논리 추론 역량이 요구되는 영역으로, 게임을 포함한 고난도 추론 분야와 기술적으로 밀접한 연관성을 갖는다. 이 같은 역량 덕분에 크래프톤은 해당 모델을 기반으로 한 게임 중심의 인공지능(AI) 기술 확장 가능성도 기대하고 있다.

크래프톤과 SK텔레콤은 언어 모델을 공동 개발하며, 각각 학습기법 개선과 인프라 구축을 통해 모델의 품질과 성능 고도화에 기여했다. 이번 협력은 도메인 특화 AI 모델 개발 역량을 입증한 사례로 평가받고 있다.

크래프톤은 기존 모델의 취약점을 분석해 이를 개선하는 오답 복기 학습 기법을 자체 개발했다. 해당 기법은 틀린 문제의 정답을 찾아 오답과 비교해 학습하며, 추론 정확도와 효율성을 동시에 확보하는 전략적 학습 방식이다. 

SK텔레콤은 데이터 검증과 모델 학습의 인프라 구축을 담당해 모델의 품질과 안정성을 확보하는 데 기여했다.

크래프톤은 이번 언어 모델에 적용한 학습기법을 게임 플레이 분석, 전략 판단 등 게임 특화형 AI 응용기술 고도화에 활용할 계획이다. 나아가 다양한 규모의 대규모언어모델(LLM)을 개발해 한국형 AI 기술 생태계의 독립성과 주도권을 확보하는 데 기여할 방침이다.

언어 모델은 글로벌 오픈소스 플랫폼인 허깅페이스(Hugging Face)를 통해 공개돼 누구나 자유롭게 활용할 수 있다.

강동식 기자 lavita@datanews.co.kr

[ⓒ데이터저널리즘의 중심 데이터뉴스 - 무단전재 & 재배포 금지]

맨 위로