카카오브레인, 멀티모달 언어모델 오픈소스 ‘허니비’ 공개

이미지와 명령어 입력하면 텍스트로 답해

  • 카카오공유 
  • 메타공유 
  • X공유 
  • 네이버밴드 공유 
  • 프린트
  • 메일
  • 스크랩
  • 목록
  • 글자크기
  • 크게
  • 작게
카카오브레인, 멀티모달 언어모델 오픈소스 ‘허니비’ 공개

▲카카오브레인이 멀티모달 언어모델(MLLM) 오픈소스 ‘허니비’를 공개했다. / 자료=카카오브레인


카카오브레인은 이미지와 대규모 언어모델을 연결할 수 있는 새로운 모듈을 제안하고자 높은 수준의 멀티모달 언어모델(MLLM) 오픈소스 ‘허니비’를 ‘깃허브(Github)’에 공개했다고 19일 밝혔다. 

MLLM은 이미지와 명령어(프롬프트)를 입력하면, 텍스트로 답변하는 모델이다. 텍스트로만 입출력하는 대규모 언어모델에서 확장된 형태라고 할 수 있다.

이미지와 텍스트를 모두 입력할 수 있기에 이미지에 담긴 장면을 묘사하거나 이미지와 텍스트가 혼합된 콘텐츠에 관한 질문을 이해하고 답변할 수 있는 능력을 갖게 된 것이다. 

예를 들어 허니비에 ‘농구 경기 중인 두 명의 선수’ 이미지와 함께 ‘왼쪽 선수는 몇 번 우승했나요?’라는 질문을 영어로 입력하면, 허니비가 입력된 이미지 내용과 질문을 종합적으로 이해하고 답변을 생성한다.

카카오브레인에 따르면, 허니비는 ‘MME’, ‘MMBench’, ‘SEED-Bench’ 등의 벤치마크에서 모델이 공개된 타사 MLLM 대비 최고 성능을 달성했다. 특히 지각 능력과 인지 능력을 평가하는 MME 벤치마크에서는 2800점 만점에 1977점을 받았다.

카카오브레인은 허니비의 MLLM 특성에 따라 이미지를 입력하고 텍스트로 질문하면 답변 생성 및 사용자와의 상호작용이 가능해 향후 효과적인 교육 및 학습 보조 도구로 사용될 것으로 전망하고 있다.

김일두 카카오브레인 각자대표는 “허니비 모델의 추론을 가능하게 하는 코드도 깃허브에 공개했으며, 허니비를 활용한 각종 서비스 확장을 고려 중”이라며 “더욱 발전된 AI 모델 확보를 위해 끊임없이 연구개발할 것”이라고 전했다.

강동식 기자 lavita@datanews.co.kr