23일(현지 시간) 메타는 최신 AI 모델 라마3.1 3종을 공개했다. 라마3.1은 매개변수 80억 개인 8B, 700억 개인 70B, 4050억 개인 405B 3종으로 출시된다. 매개변수는 AI 훈련에 사용하는 데이터를 의미한다. 매개변수가 클수록 AI 성능이 좋아지지만 용량이 커지고 가동에 많은 자원이 소모된다.
라마3.1 405B는 기존 라마 시리즈 중 최고 성능을 자랑한다. AI 성능 평가 지표 중 하나인 대규모다중작업언어이해(MMLU) 검사에서 라마3.1 405B는 정답율 88.6%를 기록했다. 오픈AI GPT-4의 85.4%, 엔트로픽 클로드3.5 소넷의 88.3%를 능가하는 수치다. 다만 오픈AI 최신 모델인 GPT-4o의 88.7%보다는 점수가 소폭 낮았다. 중소형 모델 성능도 라마3보다 개선됐다. MMLU에서 라마3 8B와 70B가 각각 68.4%, 82.0%를 기록한 반면 라마3.1 8B와 70B는 각각 73.0%, 86.0%를 나타냈다.
메타는 라마3.1로 매개변수 4000억 개 이상 대형 모델을 선보이며 그간 70B 이하 소형 모델에 집중해온 기조에 변화를 줬다. 사실 메타는 지난 4월 라마3를 공개하며 4000억 개 이상 모델을 내놓겠다는 계획을 밝힌 바 있다. 3개월이라는 짦은 간격으로 약속했던 4000억 개 이상 대형 모델을 공개하며 기존 소형·중형 모델도 개선하며 라마3.1로 이름붙인 셈이다.
메타의 이른 AI 업데이트와 ‘거대 모델’ 공개는 다분히 경쟁사를 의식한 행보로 풀이된다. 지난 4월 라마3가 공개된 후 경쟁사 AI 출시가 이어지며 조속한 대응이 필요해진 것이다. 실제 라마3 공개 한달 뒤인 5월 들어 오픈AI는 GPT-4o를, 구글은 소형 모델 제미나이 1.5 플래시를 공개했다. 이어 오픈AI가 최근 초소형 모델 GPT-4o 미니를 내놨고, 엔트로픽도 클로드3.0을 3.5로 업그레이드하며 소형인 소네트를 우선 출시했다. 그간 초거대AI에 집중하던 경쟁사들이 메타의 텃밭인 소형 AI 시장 공략에 나서자 이에 메타가 역으로 대형 AI를 선보여 반격에 나서는 구도다.
오픈소스 AI 진영 맹주로서 지위를 공고히하겠다는 전략도 엿보인다. 메타 라마 시리즈는 타 초거대 AI와 달리 설계도가 공개된 오픈소스 모델로 누구나 무료로 사용할 수 있어 수많은 ‘변형 AI’의 기본 틀이 된다. 기본이 되는 라마 시리즈 성능이 높아질수록 오픈소스 AI 생태계 전반이 득을 볼 수 있고, 오픈소스 AI 진영 내 메타의 영향력도 강해진다. 실제 마크 저커버그 메타 최고경영자(CEO)도 오픈소스의 장점을 강조하며 ‘폐쇄형’ AI 개발사들을 견제하고 있다. 저커버그 CEO는 라마3.1와 함께 공개한 편지를 통해 “컴퓨팅 초기에는 각자 폐쇄형 유닉스를 개발하는 데 막대한 투자를 해왔으나 오늘날은 오픈소스인 리눅스가 산업 표준으로 AI도 비슷한 방식으로 발전할 것”이라며 “라마3.1은 폐쇄형 모델에 비해 비용과 성능이 우수할 뿐 아니라 개방형으로 다른 모델을 미세 조정하고 정제하기에 최적”이라고 강조했다.
서울경제