경량화 언어모델(smaller Large Language Model·sLLM)은 방대한 양의 데이터를 학습해 자연어(NLP)처리 작업을 수행할 수 있는 인공지능(AI) 모델 중 하나다. 일반적으로 알려진 거대언어모델(LLM)보다 작은 매개변수(파라미터) 크기로 운영이 가능하다. 통상적으로 매개변수가 1000억개 이하인 모델이 sLLM으로 분류된다.
LLM보다 매개변수 크기는 작지만 성능은 LLM 못지않다. 매개변수가 작은 덕분에 데이터 처리 속도가 빠르고 실시간 응답이 가능하다. 오픈소스 배포와 업데이트도 LLM과 비교해 쉽다. 특히 학습 데이터량이 적어지면서 개발 비용과 유지 비용이 적게 들어가는 장점이 있다.
이같은 장점에 LLM 개발 중이던 대기업들도 sLLM에 눈을 돌리고 있다. 글로벌 테크기업인 구글은 최근 sLLM인 ‘제미나이 나노’를, 마이크로소프트(MS)는 ‘파이(Phi)-3 미니’를, 메타는 ‘라마3’를 각각 공개했다. 국내에서는 KT가 초거대 AI ‘믿음’ 매개변수 2100억개를 40~70억개 수준으로 줄인 sLLM을, LG유플러스는 LG AI연구원이 공개한 ‘엑사원’을 기반으로 한 sLLM ‘익시젠’을 준비 중이다. 네이버는 하이퍼클로바X의 경량 모델인 ‘HCX-대시’를 선보이기도 했다.
비용 효율화 장점에 스타트업도 sLLM 개발에 뛰어들었다. AI 스타트업 업스테이지의 sLLM ‘솔라 미니’는 최근 아마존웹서비스(AWS)를 통해 출시했다. 고객사들은 솔라 미니를 조정해 자신들이 원하는 맞춤형 생성 AI 서비스를 만들 수 있다. AI 기업 솔트룩스는 매개변수 70억개 수준인 AI 모델을 내놨다.
남궁경 기자 nkk@etnews.com
- 에코프로머티, 블록딜 소식에 하락세
- 최저임금위 첫 전원회의…’1만원 돌파’ 주목
- “범부처 수출 추가지원 대책 조속 발표…업종별·기업규모별 맞춤형 지원”
- 산업부, 말레이시아 사라왁주와 에너지 분야 협력 논의
- [에듀플러스][대학의 혁신, 산단이 이끈다]②이진욱 숭실대 산학협력단장 “120년 산학 DNA 갖춰…50만 달러 해외 기술이전 사례 성과도”