最近 몇 달 동안 全 世界 政府는 生成型 人工知能(AI)의 危險을 管理하기 위해 ‘레드팀(謀議敵軍) 構成
red teaming’
이라는 솔루션에 集中하기 始作했다.
2023年 10月 末, 바이든 行政府는 AI에 關한
廣範圍한 行政命令
을 宣布했다. 가장 重要한 要件은 特定 高危險 生成型 AI 모델에 對한 ‘레드팀’을 構築하는 것이다. 레드팀은 ‘AI 시스템의 缺陷과 脆弱點을 찾기 위한 構造化된 테스트 努力’으로 定義할 수 있다. 이 行政命令은 政府가 數千 名의 해커를 招待해 公式的인 AI
레드팀 構成 이벤트
를 主催한 지 몇 달 만에 發表됐다.
레드팀 構成에 對한 關心은 肯定的인 發展이다. 레드팀 構成은 生成型 AI의 危險을 發見하고 管理하는 效果的인 方法 中 하나다. 하지만 레드팀을 實際로 具現하는 데는 여러 가지 障壁이 存在한다. 例를 들어 레드팀의 構成 要素를 明確히 하고, 레드팀이 모델을 테스트하는 동안 遂行할 作業을 標準化하며, 테스트가 끝난 後 結果를 體系化하고 配布하는 方法을 明示하는 것 等이다.
各 모델마다 脆弱點, 配布 環境이 다르기 때문에 레드팀 構成이 完全히 똑같을 순 없다. 이런 理由로 基礎 모델을 開發하는 供給業體와 該當 모델을 微細하게 調整해 活用하는 企業 모두에 一貫되고 透明한 레드팀을 構成하는 것이 生成型 AI 配布의 核心 課題가 됐다.
아티클을 끝까지 보시려면
有料 멤버십에 加入하세요.
첫 달은 無料입니다!