[IT講義室] 生成型 AI와 클라우드의 相關關係는?
[IT東亞 남시현 記者] 生成型 AI의 性能은 데이터의 品質과 量, 모델 아키텍처 및 알고리즘, 그리고 學習 및 評價 環境이 決定한다. 高品質 데이터를 많이 確保하고, 生成型 AI의 動作 構造와 性能을 最適化하며, AI가 제대로 學習하고 結果를 내놓도록 만들어야 한다. 마이크로소프트와 구글이 生成型 AI 市場에서 頭角을 드러내는 理由도 데이터를 大量으로 蒐集하기 좋고, 또 이를 實行하기 위한 인프라와 人力 資源을 모두 갖추고 있어서다.
하지만 두 企業이 唯獨 生成型 AI 市場에서 浮刻되는 理由는 클라우드 德分이다. 生成型 AI의 性能에서 可能한 많은 데이터를 確保하는 것도 重要하지만, 이를 管理하는 게 클라우드다. 마이크로소프트는 애저 클라우드, 구글은 구글 클라우드에서 自社 서비스에 最適化된 데이터와 맞춤型 칩을 導入해 競爭力을 確保했다. 클라우드와 生成型 AI의 蜜月 關係를 짚어본다.
生成型 AI의 性能은 ‘媒介變數’에서 나온다.
一般的인 IT 서비스는 데이터를 保管, 活用, 配布하기 爲한 서버가 必要하다. 過去에는 서비스 提供者가 物理的인 서버, 貯藏裝置, 네트워크 裝備 等을 直接 인터넷 데이터 센터(IDC) 形態로 構築해 活用했지만, 小規模 및 大規模 서버의 必要性이 커지면서 인터넷으로 서버 資源을 끌어다 쓰는 ‘클라우드’ 槪念이 생겼다.
클라우드 컴퓨팅은 클라우드 서비스 企業이 構築한 서버 資源을 인터넷으로 끌어다 쓰는 槪念인데, 單純히 데이터 處理 및 保管뿐만 아니라 保管된 데이터를 加工하고 소프트웨어 形態로 活用할 수 있다. 可用 資源 亦是 必要에 따라 늘리거나 줄일 수 있고, 必要한 하드웨어 및 소프트웨어도 클릭 몇 番이면 쓸 수 있다. 國際 標準이나 保安 規格, 最新 作業 環境도 長點이다.
한便 生成型 AI는 機械學習과 自然語 處理 等의 技術이 適用된 人工知能의 한 形態다. 事前에 蒐集되고 整理된 데이터를 活用하고, 이를 土臺로 使用者의 要請을 바탕으로 콘텐츠를 만들어 提供한다. 生成型 AI의 性能은 데이터의 單位인 ‘媒介變數’를 얼마나 많이 가지고 있는지가 決定하는데, 구글 제미나이 울트라는 約 1兆 5600億 個, GPT-4는 約 1兆 7000億 個의 媒介變數를 갖춘 것으로 알려져 있다.
莫大한 量의 媒介變數 貯藏, 整理에 ‘클라우드’ 使用
生成型 AI 企業들은 갈수록 많은 量의 媒介變數를 人工知能에 搭載하고 있다. 勿論 IDC로도 生成型 AI를 貯藏하고 管理할 수 있지만, 問題는 物理的인 限界다. 萬若 生成型 AI 需要가 늘어난다면 IDC 環境에서는 每番 需要에 맞춰 서버 및 貯藏裝置를 發注하고 設置해야 한다. 여기에만 最少 몇 週 以上이 걸리고, 需要 豫測도 쉽지 않다. 萬若 서버를 늘렸다가 需要가 減少하면 損害를 떠안게 된다.
클라우드는 實時間으로 서버 需要를 調整할 수 있다. 貯藏 空間의 限界가 없으니 需要에 맞춰 容量을 늘리고 줄이는 方式으로 豫算을 節減할 수 있다. 또한 클라우드 事業者 亦是 生成型 AI 데이터 處理를 위해 專用 하드웨어, 데이터 分析 및 開發, 모니터링 소프트웨어 等을 提供하고, 開發된 서비스도 假想 環境에서 檢證을 거치고 配布할 수 있다. 클라우드가 없었다면 生成型 AI 亦是 이렇게 빨리 成長할 수 없었다.
生成型 AI, 클라우드 企業이 앞설 수밖에 없어
많은 企業들이 生成型 AI를 硏究하고 있지만, 結局은 클라우드 企業이 勝利할 수밖에 없다. 마이크로소프트는 지난해 11月, 生成型 AI 演算에 最適化된 마이아 100, 서버 CPU 코발트 100을 導入했고, 구글 亦是 8月에 구글 TPU v5e AI 加速器를 自社 클라우드에 導入했다. 클라우드 市場 1位 企業인 AWS도 生成型 AI 및 機械學習, 人工知能 開發에 最適化된 그래非톤, 人퍼런시亞, 트레이니嚴 歲 칩을 開發하고, 이를 基盤으로 하는 生成型 AI AWS 타이탄, 베드錄을 서비스한다.
國內 狀況도 비슷하다. 지난 2月 5日, NHN클라우드와 네이버클라우드는 AI 共同事業을 위한 業務協約을 맺고 하이퍼클로바 X 技術을 適用한 멀티 클라우드 共同 開發, 共同 및 敎育分野 맞춤型 LLM(大型言語모델) 事業 協力, 共同 開發 서비스의 市場 擴大 및 支援 等을 推進하기로 했다. 네이버클라우드는 클라우드 事業者의 立地를 살려 超巨大 AI 事業을 進行하는데, 글로벌 市場이 急變해 共同 對應에 나서는 것이다.
클라우드가 없는 AI 事業者는 狀況이 쉽지 않다. 人工知能龍 LLM을 開發하는 메타의 境遇, 라마1(Llama)까지는 硏究者를 對象으로만 公開했으나, 라마2는 누구나 無料로 쓰고 開發하도록 MS, AWS, 알리바바, 許깅페이스 等에 오픈소스로 配布했다. 이처럼 生成型 AI, LLM만 만드는 企業들은 結局 他社 클라우드에 서비스를 搭載하는 式으로 市場에 陞差하고 있다.
메타버스, NFT와 다른 ‘生成型 AI’의 成長勢
生成型 AI는 昨年과 올해, 來年까지 IT 業界의 뜨거운 감자다. 實證 槪念은 뚜렷했으나 商業的 成果가 없었던 메타버스, 代替不可能토큰(NFT)와 달리 生成型 AI는 全 産業 領域에서 새로운 價値를 創出하고 있다. 이미 스테이블디퓨전, 美드저니 等의 生成型 AI가 이미지 創作으로 美術, 廣告 業界를 뒤집어놓았고, GPT도 서비스業, 敎育, 코딩, 文書作業 等 많은 領域에서 革新을 일으키고 있다. 오픈AI의 動映像 生成型 AI ‘소라’는 또 한 番 市場에 衝擊을 줄 展望이다.
그리고 그 모든 成長 背景에는 클라우드가 있다. 卽 生成型 AI가 存在할 수 있는 理由 自體가 클라우드가 뒷받침이 되는 德分이다. 네이버클라우드 關係者는 “AI 모델과 서비스가 高度化하는 狀況에서는 소프트웨어, 하드웨어, 運營 環境의 統合的 接近이 必要하고, 이를 堪當할 수 있는 솔루션이 클라우드 서비스”라면서, “네이버처럼 클라우드, 데이터센터, AI 半導體 等의 인프라를 自體 保有한 形態가 빅데이터 및 生成型 AI 서비스를 安定的이고 效率的으로 運營할 수 있는 모델”이라고 答했다.
글 / IT東亞 남시현 (sh@itdonga.com)