AI 전문기업 '모레', 'kt 클라우드 서밋 2024'서 초거대 AI시대 인프라SW 발전방안 제시

컴퓨팅 인프라 개발능력 중요…자체 개발 거대언어모델(LLM)과 AI 플랫폼 기술 소개

  • 카카오공유 
  • 메타공유 
  • X공유 
  • 네이버밴드 공유 
  • 프린트
  • 메일
  • 스크랩
  • 목록
  • 글자크기
  • 크게
  • 작게
AI 전문기업 모레, kt 클라우드 서밋 2024서 초거대 AI시대 인프라SW 발전 방안 제시

▲지난 2일 삼성동 그랜드 인터컨티넨탈 서울 파르나스에서 열린 'kt 클라우드 서밋(kt cloud summit) 2024’에서 조강원 모레 대표가 '초거대 AI시대의 인프라SW와 클라우드'를 주제로 발표하고 있다. / 사진=모레


인공지능(AI) 인프라 솔루션 기업 모레(MOREH, 대표 조강원)는 지난 2일 서울 삼성동 그랜드 인터컨티넨탈 서울 파르나스에서 열린 'kt 클라우드 서밋(kt cloud summit) 2024’에 연사로 참가해 초거대 AI 시대의 인프라 소프트웨어(SW)와 클라우드의 발전 방안에 대해 발표했다고 밝혔다.
 
작년에 이어 두 번째로 열린 이번 행사는 올해 ‘AICT for all Business with Cloud·IDC’라는 슬로건을 기반으로 AI, 클라우드(Cloud), 인터넷데이터센터(IDC) 분야의 산업 동향과 전략, 기술 중심의 서비스 구현 및 고객 경험을 소개했다. AICT는 통신 역량에 IT와 AI를 더해 IT 관련 전 산업군에서 AI 적용을 확대하는 디지털 혁신 파트너가 되겠다는 KT의 새로운 성장 전략이다.
 
주제발표를 통해 조강원 모레 대표는 "초거대 AI 시대를 맞아 전체 AI 기술 스택에서 인프라, 특히 인프라 SW의 역할이 본질적으로 바뀌고 있다. 계산 자원을 잘 활용하는 것이 초거대 AI의 품질을 좌우하는 핵심 요소"라며 "컴퓨팅 인프라를 키우고 활용하는 능력을 개발해 수백, 수천 개의 GPU를 동시에 잘 활용하는 것이 중요하다"고 말했다.
 
조 대표는 또 "최고 수준의 거대언어모델(LLM)을 빠르게 개발하기 위해서는 무엇보다 효율적인 모델 학습 방법을 확보하는 것이 중요한데 모레가 자체 개발한 ‘MoAI’ 플랫폼은 고도의 병렬화 처리 기법을 통해 대규모 AI 모델을 효율적으로 개발하고 학습할 수 있도록 돕는다"고 덧붙였다.
 
모레는 이러한 기술력을 바탕으로 올해 초 자체 개발한 LLM이 세계 최대 머신러닝 플랫폼 허깅페이스가 운영하는 ‘오픈 LLM 리더보드’ 평가에서 77.29점이라는 높은 점수를 기록하며 글로벌 1위에 올르기도 했다고 설명했다. 이미 모레의 SW는 AMD 인스팅트(Instinct) GPU와 함께 KT의 AI 클라우드 서비스에서 '하이퍼스케일 AI컴퓨팅'(HAC)이라는 상품명으로 상용 서비스 중이다.
 
AI 반도체 생태계를 대표하는 주요 테크 기업으로 꼽히는 모레는 AI 인프라 SW를 비롯한 기업용 AI 클라우드 솔루션을 개발한다. 모레의 솔루션은 GPT-3와 같은 LLM 등 주요 AI 서비스를 개발, 운영하는 데 있어 엔비디아에 대한 의존도를 획기적으로 낮출 수 있게 해준다.
 
모레는 조강원 대표 등 토종 슈퍼컴퓨터 '천둥'을 개발한 서울대 매니코어프로그래밍연구단 출신들이 주축이 돼 2020년 9월 설립했다. 지난해 10월에는 KT, AMD 등으로부터 2200만 달러 규모의 시리즈B 라운드 투자를 받아 화제가 됐다. 

강동식 기자 lavita@datanews.co.kr