구광모 AI 뚝심…LG, 멀티모달 AI '엑사원 4.5' 공개
SBS Biz 최지수
입력2026.04.09 10:10
수정2026.04.09 10:13
[구광모 LG그룹 회장(맨 오른쪽)이 2일(현지시간) 미국 실리콘밸리에서 피지컬AI 분야 세계적 권위자인 아비나브 굽타 스킬드AI 공동 창업자와 휴머노이드 시연을 살펴보고 있다. (LG 제공=연합뉴스)]
LG AI연구원은 멀티모달 인공지능(AI) 모델 '엑사원(EXAONE) 4.5'를 공개했다고 오늘(9일) 밝혔습니다.
엑사원 4.5는 LG AI연구원이 자체 개발한 비전 인코더(Vision Encoder)와 거대언어모델(LLM)을 하나의 구조로 통합한 비전-언어 모델(VLM)로, 텍스트와 이미지를 동시에 이해하고 추론합니다.
특히 계약서, 기술 도면, 재무제표, 스캔 문서 등 산업 현장에서 실제로 다루는 복합 문서를 읽고 추론하는 데 강점을 보였습니다.
LG AI연구원이 공개한 벤치마크 점수에 따르면 엑사원 4.5는 과학·기술·공학·수학 성능을 측정하는 5개 지표에서 평균 77.3점을 기록해 미국 오픈AI 지피티5-미니(73.5점), 앤트로픽 클로드 소넷 4.5(74.6점), 중국 알리바바 큐웬3 235B(77.0점)를 모두 앞섰습니다.
일반 시각 이해를 측정하는 3개 지표와 문서 이해 및 추론 성능 평가 지표 5개를 포함한 13개 지표 평균 점수에서도 글로벌 동급 모델을 상회했습니다. 코딩 성능을 대표하는 라이브코드벤치 v6에서는 81.4점으로 구글의 최신 모델 젬마 4(80.0점)를 넘었습니다.
330억개 파라미터 규모(33B)인 엑사원 4.5는 지난해 말 공개한 'K-엑사원'의 약 7분의 1 크기로 텍스트 이해 및 추론 영역에서 동등한 수준의 성능을 달성해 효율성을 높였습니다.
공식 지원 언어는 한국어와 영어 외 스페인어, 독일어, 일본어, 베트남어까지 확대됐습니다.
LG AI연구원은 이날 엑사원 4.5를 글로벌 오픈소스 플랫폼인 허깅페이스(Hugging Face)에 연구·학술·교육 목적으로 사용할 수 있도록 공개했습니다.
이진식 LG AI연구원 엑사원랩장은 "엑사원 4.5는 LG AI가 텍스트를 넘어 시각 정보까지 이해하는 멀티모달 시대로 진입했음을 보여주는 모델"이라며 "이번 모델을 시작으로 음성과 영상, 물리 환경까지 AI의 이해 범위를 확장해 산업 현장에서 실질적으로 판단하고 행동하는 AI를 만들어가겠다"고 밝혔습니다.
한편, LG AI연구원은 엑사원 4.5을 기반으로 독자 AI 파운데이션 모델 프로젝트에 개발 중인 'K-엑사원'의 모달리티 확장에 나설 계획입니다.
물리적 세계를 이해하고 판단하는 피지컬 인텔리전스로 엑사원을 발전시키는 것이 목표입니다.
ⓒ SBS Medianet & SBSi 무단복제-재배포 금지
많이 본 'TOP10'
- 1.[단독] 삼성 전 계열사, 현·퇴직자 퇴직금 소급 지급한다
- 2.[단독] "연금 배달 왔습니다"…할머니 국민연금 집배원이 간다
- 3."집 팔아 직원 100명 월세 평생 지원"…토스 대표 결국 사과
- 4.대만이 발표한 충격 보고서…한국보다 '최악'
- 5.자녀 4천만원 차 때문에 부모 기초연금 끊긴다?
- 6.오늘 1시간 연차 낼게요…못 쓰게 하면 벌금
- 7.삼천당, 오늘 입 연다…최대주주 대표, 2천 500억 매각 철회
- 8.[단독] 삼성, 현직자도 퇴직금에 성과급 '소급' 반영한다
- 9.5월1일 '빨간날' 쉰다…5인 미만 회사는?
- 10."오늘 1시간만 연차 쓸게요"…연차휴가 시간단위 쓴다