"네이버·카카오 보고 있나"…설립 1년차 신생기업, 70B LLM '설계도' 통째로 풀었다

상업적 활용 가능한 아파치 2.0 라이선스 적용…학습 과정 담긴 '체크포인트' 공개

컴퓨팅입력 :2025/09/10 16:49

트릴리온랩스가 국내 최대 규모 거대언어모델(LLM)의 훈련 과정까지 전면 공개했다. 전례 없는 수준의 개방성을 앞세워 국내 AI 기술 생태계의 주도권을 확보하려는 전략으로 풀이된다.

트릴리온랩스는 자체 개발한 700억 파라미터 규모 LLM '트리(Tri)-70B'를 10일 공개했다. 회사에 따르면 이 모델은 한국에서 프롬 스크래치로 개발된 언어모델 중 가장 큰 규모다. 사후학습이 최소화된 베이스 모델 형태라 활용성이 높다.

트릴리온랩스는 70B 모델 공개와 함께 '오픈소스 먼스'를 선언했다. ▲0.5B ▲1.8B ▲7B ▲70B에 이르는 모델 전체 라인업을 아파치 2.0 라이선스로 개방해 상업적 활용의 길을 열었다.

트릴리온랩스 오픈소스 먼스 (사진=트릴리온랩스)

특히 이번 공개에서 가장 주목받는 부분은 학습 중간 과정이 담긴 체크포인트까지 전면 공개한 점이다. 이는 연구자들이 모델의 학습 과정을 정밀하게 분석하고 효율적으로 재학습할 수 있는 길을 연 것으로 평가된다. 전 세계적으로도 허깅페이스 등 소수만 시도한 방식으로 국내에서는 최초다.

공개된 모델에는 다국어 번역과 실시간 검색에 특화된 버전도 포함됐다. 검색 특화 모델은 '덕덕고' 같은 검색 엔진과 연동해 최신 정보를 즉각 반영할 수 있어 LLM의 지식 확장 가능성을 제시한다.

관련기사

트릴리온랩스는 지난해 8월 설립된 스타트업으로 독자적인 한국어 중심 LLM을 개발해왔다. 신재민 대표를 중심으로 카이스트, 옥스포드, 아마존, 네이버 등 출신의 인재들로 구성됐다. 회사는 지난해 9월 90억원 규모의 프리-시드 투자를 유치한 바 있다.

신재민 트릴리온랩스 대표는 "단순히 언어 모델을 만드는 데 그치지 않고 훈련 과정과 핵심 기법까지 모두 공개해 연구의 투명성을 확보하고 글로벌 AI 연구 생태계 발전의 토대를 마련하고자 한다"며 "이번 공개는 국내 AI 기업들이 기술적 우수성과 개방적 연구 문화를 통해 글로벌 경쟁력을 확보할 수 있음을 보여주는 중요한 출발점이 될 것"이라고 밝혔다.