'메타 AI' 페이스북·인스타그램·왓츠앱에 搭載
저커버그 "가장 知能的인 AI 祕書"
ⓒ뉴시스
메타가 最新 大規模 言語모델(LLM) ‘라마3(Llama 3)’ 基盤의 人工知能(AI) 챗봇 ‘메타 AI’를 페이스북과 인스타그램, 왓츠앱에 搭載한다.
18日(現地時間) 美國 CNBC 放送과 파이낸셜타임스(FT) 等 現地 外信에 따르면 메타 AI는 自社 소셜미디어(SNS) 플랫폼 앱 檢索窓에 內藏돼 使用者들이 無料로 質問하고 答을 求할 수 있다.
메타 AI 使用者들은 休暇 計劃이나 레스토랑 推薦 等의 도움을 받을 수 있다. 웹사이트 ‘meta.ai’에서는 數學 問題를 풀거나 專門的인 이메일을 作成하는 方法 等을 메타 AI에 물어볼 수 있다. 다만 이미지 生成 機能은 왓츠앱과 웹사이트에서 베타 버전만 提供된다.
現在 서비스 對象 國家는 美國과 캐나다, 뉴질랜드, 濠洲 等 英語圈 12個國이다. 韓國은 包含되지 않았다.
메타 AI의 基盤이 되는 LLM ‘라마3’는 事前訓鍊과 微細調整을 마친 80億 個(8B)와 700億 個(70B) 媒介變數 모델 두 가지로 公開됐다.
이 두 모델은 現在 同級의 오픈소스 모델 中 最高 水準의 性能인 것으로 評價받는다. ‘大規模 多重作業 言語理解(MMLU)’를 包含한 多樣한 業界 標準 벤치마크에서 높은 成跡을 받았으며 推論과 코드 生成, 指示 遂行에 있어 前보다 性能이 크게 改善된 것으로 傳해졌다.
라마3의 性能 向上은 모델의 事前 訓鍊과 事後 訓鍊 過程을 高度化함으로써 이뤄졌다. 事前 訓鍊을 위해 데이터셋의 量을 늘리고, 필터링 過程을 거쳐 高品質 데이터만을 選別했다. 라마3는 15兆 以上의 토큰으로 訓鍊됐으며, 이는 라마2 對備 7倍 以上 많고, 코드量은 4倍 더 많다.
또한 라마3의 事前 訓鍊에는 日常的인 質問부터 科學, 技術, 工學, 數學(STEM) 分野, 코딩, 歷史 知識에 이르기까지 다양한 分野의 데이터셋이 使用됐다. 이를 통해 모델이 보다 여러 領域에서 活用될 수 있도록 했다.
아울러 事前 訓鍊의 規模를 擴大하고 보다 高度化된 ‘指示 微細調整’ 過程을 進行했다. 專門家와 自動化된 道具를 活用한 레드팀 訓鍊을 통해 不適切한 答辯의 可能性도 最少化했다.
메타는 8B와 70B 媒介變數 모델을 먼저 선보이며 硏究員과 開發者의 피드백을 통해 持續 발전시켜나갈 方針이다. 現在 訓鍊 中인 더 큰 規模의 모델 亦是 追後 오픈소스로 公開할 計劃이다. 라마3를 더 긴 컨텍스트를 理解하는 多國語 멀티모달 모델로 발전시키고, 全般的인 性能을 持續 改善시키는 것이 窮極的인 目標다.
라마3 모델은 홈페이지에서 다운로드가 可能하며 AWS, 데이터브릭스, 구글 클라우드, 許깅페이스, IBM 왓슨x, 마이크로소프트 애저 等 多樣한 플랫폼에도 公開될 豫定이다. 하드웨어 側面에서는 AMD, AWS, 델, 인텔, 엔비디아와 퀄컴이 파트너로 함께한다.
마크 저커버그 메타 最高經營者(CEO)는 “메타 AI는 자유롭게 利用할 수 있는 가장 知能的인 AI 祕書”라고 强調했다.
[서울=뉴시스]