한국   대만   중국   일본 
人工知能 - 위키百科, 우리 모두의 百科事典 本文으로 移動

人工知能

위키百科, 우리 모두의 百科事典.

人工知能 (人工智能, 英語 : artificial intelligence, AI )은 人間 의 學習能力, 推論能力 , 知覺能力을 人工的으로 具現하려는 컴퓨터 科學 의 細部分野 中 하나이다. 情報工學 分野에 있어 하나의 인프라 技術이기도 하다. [1] [2] 人間을 包含한 動物이 갖고 있는 知能 卽, 自然 知能(natural intelligence)과는 다른 槪念이다

人間의 知能을 模倣한 機能을 갖춘 컴퓨터 시스템 이며, 人間의 知能을 機械 等에 人工的으로 試演(具現)한 것이다. 一般的으로 汎用 컴퓨터에 適用한다고 假定한다. 이 用語는 또한 그와 같은 知能을 만들 수 있는 方法論이나 實現 可能性 等을 硏究하는 科學 技術 分野를 指稱하기도 한다. [3] [4] [5]

江人工知能과 約人工知能 [ 編輯 ]

初期 人工知能 硏究에 對한 代表的인 定義는 다트머스 會議에서 존 매카시가 提案한 것으로 "機械를 人間 行動의 知識에서와 같이 行動하게 만드는 것"이다. 그러나 이 定義는 汎用人工知能 (AGI, 剛한 人工知能)에 對한 考慮를 하지 못한 것 같다. 人工知能의 또다른 正義는 人工的인 裝置들이 가지는 知能이다. 거의 大部分 定義들이 人間처럼 思考하는 시스템, 人間처럼 行動하는 시스템, 理性的으로 思考하는 시스템 그리고 理性的으로 行動하는 시스템이라는 4個의 分類로 分類된다. [6] 人工知能의 作動 方式이 意思 決定과 問題 解決, 學習에 있어 사람의 생각이나 行動과 類似할수록 剛한 人工知能으로 分類되고, 論理에 依해 만들어지는 合理的인 생각이나 行動에 가까울수록 弱한 人工知能으로 分類된다. [7]

約人工知能 [ 編輯 ]

約人工知能(weak AI)은 寫眞에서 物體를 찾거나 소리를 듣고 狀況을 把握하는 것과 같이 旣存에 人間은 쉽게 解決할 수 있으나 컴퓨터로 處理하기에는 어려웠던 各種 問題를 컴퓨터로 遂行하게 만드는데 重點을 두고 있다. 한참 漠然한 人間 知能을 目標로 하기보다는 더 現實的으로 實用的인 目標를 가지고 開發되고 있는 人工知能이라고 할 수 있으며, 一般的인 知能을 가진 무언가라기보다는 특정한 問題를 解決하는 道具로써 活用된다.

江人工知能 (AGI) [ 編輯 ]

江人工知能(strong AI) 또는 人工 一般 知能 (arificial general intelligence, AGI)은 人間처럼 實際로 思考하여 問題를 解決할 수 있는 "一般 知能"을 人工的으로 具現하려는 試圖이다. 오늘날 이 分野의 硏究는 主로 미리 定義된 規則의 母音을 利用해서 知能을 흉내내는 컴퓨터 프로그램을 開發하는 것에 맞추어져 있다. 剛한 人工知能 分野의 發展은 如前히 微弱하지만, 人間과 같은 知能이라는 目標를 어떻게 定義하는지에 따라 어느 程度 發展이 이루어지고 있다고도 볼 수 있다.

江人工知能의 實現 可能性에 關한 論爭 [ 編輯 ]

존 설 이나 휴버트 드라이퍼스 와 같은 몇몇 哲學者들은 몸이 아닌 機械에 人間의 知能이나 意識을 具現하는 作業의 實現 可能性에 對한 哲學的 바탕을 두고 論爭을 벌였다. 說은, 튜링 테스트 의 通過 與否는 사람의 基準으로 볼 때 機械가 意識을 갖추었다는 判斷의 必要 條件이 되지 못한다는 中國語 房 에 對한 論證으로 有名하다. 드라이퍼스는 그의 著書 "컴퓨터가 할 수 없는 것들: 人工的인 推論에 對한 批評"에서 意識이라는 것은 룰이나 論理 基盤 시스템 또는 物理的인 形態를 가지고 있지 않은 시스템에서 찾을 수 없으나, 神經網(neural network)이나 그 類似한 메커니즘을 利用하는 로보틱 시스템은 人工知能을 實現할 수 있는 可能性이 있다고 主張했다.

다른 哲學者들은 엇갈린 觀點을 固守한다. 많은 사람들이 弱한 人工知能 程度는 可能하다고 보지만, 또한 많은 사람들이 剛한 人工知能을 支持하고 있는 것도 事實이다. 대니얼 C. 데넷 은 그의 '意識에 對한 說明'에서 萬一 魔法의 불꽃이나 靈魂이 없다면 人間은 機械에 不過하다며, 知能에 對해서만 人間이라는 機械가 다른 實現 可能한 모든 機械와 다르게 特別 取扱을 받아야할 理由가 무엇인가 묻고 있다.

어떤 哲學者들은 우리가 弱한 人工知能을 可能한 것으로 받아들인다면, 剛한 人工知能 亦是 받아들여야 한다고 主張한다. 知能은 外見上 보이는 것을 가리키는 것이지 眞正한 實體가 아니라는 弱한 人工知能의 立場은 많은 批判을 받고 있다. 그러나 이에 反하는 손쉬운 例를 사이먼 블랙번의 哲學 入門書 "생각"에서 찾을 수 있다. 블랙번은 當身이 知能的으로 보이지만, 그 知能이 實存하는가에 對해서 말할 수 있는 方法이 없다고 指摘한다. 그는 우리는 但只 믿음 또는 信念 위에서 그것을 다룰 뿐이라고 이야기한다.

剛한 人工知能을 支持하는 사람들은 人工知能에 反對하는 사람들의 論證이 結局은 아래와 같은 主張을 組合한 것이라고 主張한다.

  1. 特權에 바탕을 둔 傲慢함으로 인해 人間에게는 (機械에는 없는) 魔法의 불꽃이 있다는 主張 (例를 들면, 神에 依해 주어진 靈魂)
  2. 知能은 機械로는 成就될 수 없는 그 무엇이라는 主張.

剛한 人工知能을 뒷받침하는 論證(따라서 反對하는 사람은 이 論證을 論駁해야 한다.)은 다음과 같다.

  1. 人間의 마음은 有限 狀態 機械 (Finite State Machine)이고, 따라서 處置-튜링 理論 은 腦에 適用 可能하다.
  2. 腦는 純粹한 하드웨어이다.(말하자면 古典的인 컴퓨터처럼 動作한다.)
  3. 人間의 마음은 오로지 腦를 통해서만 存在한다.

爐底 펜로즈 를 包含한 몇몇 學者들은 知能에 處置-튜링 命題 의 適用이 可能하지 않다고 論駁한다. 特히 펜로즈는 人間의 마음에는 物理的인 屬性을 뛰어넘는 무언가가 있다고 이야기하며, 그의 主張은 우리의 宇宙 안에서 超演算(hypercomputation)이 可能하다는 論證에 바탕을 두고 있다. 量子力學과 뉴턴 力學에 따르면 이러한 超연산은 可能하지 않지만, 特別한 時空間 에서는 可能한 것으로 생각되기도 한다. 그러나 이는 少數의 主張이며, 우리의 宇宙는 그러한 超演算이 可能할 程度로 꼬이지(convoluted) 않았다는 많은 學者들의 合意가 存在한다.

歷史 [ 編輯 ]

人工知能 理論의 發展 [ 編輯 ]

相當數 人工知能 硏究의 (本來) 目的은 心理學에 對한 實驗的인 接近이었고, 言語 知能(linguistic intelligence)이 무엇인지를 밝혀내는 것이 主目標였다( 튜링 테스트 가 代表的인 例이다).

言語 知能을 除外한 人工知能에 對한 試圖들은 로보틱스 와 集合的 知識을 包含한다. 이들은 環境에 對한 處理, 意思 決定을 一致시키는 것에 中心을 두며 어떻게 知能的 行動이 構成되는 것인가를 찾을 때, 生物學 과, 政治科學 으로부터 이끌어 낸다. 社會的 計劃成果 認知性의 能力은 떨어지지만 人間과 類似한 類人猿을 包含한, 複雜한 認識方法을 가진 動物뿐만 아니라 特히 昆蟲들(로봇들로 模倣하기 쉬운)까지 包含한 動物學으로부터 人工知能 科學은 始作된다. 여러 가지 生命體들의 모든 論理構造를 가져온 다는 것은 理論的으로는 可能하지만 數値化, 機械化 한다는 것은 쉬운 일이 아니다.

人工知能 學者는 動物들은 人間들보다 模倣하기 쉽다고 主張한다. 그러나 動物의 知能을 滿足하는 計算 모델은 없다. 매컬러 가 쓴 神經 行動에서 內在的 思考의 論理的 計算 [8] , 튜링 의 機械와 知能의 計算 [9] 그리고 리클라이더 의 人間과 컴퓨터의 共生 [10] 가 機械 知能의 槪念에 關한 獨創的인 論文들이다.

존 루커스의 知性, 機械, 괴델 [11] 과 같은 論理學과 哲學基盤의 機械知能의 可能性을 否認한 初期 論文들도 있다. [12]

人工知能 硏究에 바탕을 둔 實質的인 作業이 結實을 거둠에 따라, 人工知能을 支持하는 사람들은 人工知能의 業績을 깎아내리기 위해 人工知能에 反對하는 사람들이 예전에는 '知能的'인 일이라고 主張하던 컴퓨터 체스나 바둑, 音聲認識 等과 같은 作業에 對해 말을 바꾸고 있다고 非難하였다. 그들은 이와 같이 硏究 目標를 옮기는 作業은 '知能'을 '人間은 할 수 있지만, 機械는 할 수 없는 어떤 것'으로 定義하는 役割을 한다고 指摘하였다.

(E.T. Jaynes에 따르면) 존 폰 노이만 은 이미 이를 豫測하였는데, 1948年 에 機械가 생각하는 것은 不可能하다는 講義를 듣고 다음과 같이 말하였다. "當身은 機械가 할 수 없는 어떤 것이 있다고 主張한다. 萬一 當身이 그 機械가 할 수 없는 것이 무엇인지를 正確하게 이야기해준다면, 나는 언제든지 그 일을 遂行할 수 있는 機械를 만들 수 있다." 했다. 폰 노이만은 이미 그 前에 모든 處理節次(procedure)는 (汎用)컴퓨터에 依해서 시뮬레이션 될 수 있다고 이야기함에 따라 쳐치-튜링 理論을 言及했다.

1969年 에 매카시와 헤이스는 그들의 論文 "人工知能 觀點에서 바라본 哲學的인 問題들"에서 프레임 問題 를 言及하였다.

人工知能의 誕生(1943-1956) [ 編輯 ]

1940年代 後半과 1950年代 初盤에 이르러서 數學, 哲學, 工學, 經濟 等 다양한 領域의 科學者들에게서 人工的인 頭腦의 可能性이 論議되었다. 1956年에 이르러서, 人工知能이 學問 分野로 들어섰다.

人工頭腦學과 初期 神經 네트워크 [ 編輯 ]

생각하는 機械에 對한 初期 硏究는 30年代 後期에서부터 50年代 初期의 流行한 아이디어에 靈感을 얻은 것이었다. 當時 神經學의 最新 硏究는 實際 腦가 뉴런으로 이루어진 電氣的인 네트워크라고 보았다. 위너 가 人工頭腦學을 電氣的 네트워크의 制御와 安定化로 描寫했으며, 섀넌 의 情報 科學은 디지털 信號로 描寫했다. 또 튜링의 計算 理論은 어떤 形態의 計算도 디지털로 나타낼 수 있음을 보였다. 이런 여러 密接한 聯關에서, 人工頭腦의 電子的 構築에 對한 아이디어가 나온 것이다. [13] 월터 의 거북이 로봇이 이 아이디어를 重要하게 包含한 硏究의 例이다. 이 機械는 컴퓨터를 使用하지 않고 아날로그 回路를 利用했지만, 디지털의 電子的, 象徵的 推理를 보여주기엔 充分했다. [14] 월터 피츠(Walter Pitts)와 워런 매컬러(Warren Sturgis McCulloch)는 人工 神經網에 起因한 네트워크를 分析하고 그들이 어떻게 簡單한 論理的 機能을 하는지 보여주었다. 그들은 後에 神經 네트워크 [15] 라 부르는 技術을 첫番째로 硏究한 사람이다. 피츠와 매컬러는 24살의 大學院生인 젊은 마빈 민스키 를 만났고, 민스키는 1951年 첫番째 神經 네트워크 機械인 SNARC [16] 를 構築했다. 민스키는 向後 50年동안 人工知能의 가장 重要한 指導的, 革新的 人物 中 하나가 되었다.

튜링 테스트 [ 編輯 ]

1950年 앨런 튜링 은 생각하는 機械의 具現 可能性에 對한 分析이 담긴, 人工知能 歷史에서 赫赫한 論文을 發表했다. [17] 그는 "생각"을 定義하기 어려움에 注目해, 그 有名한 튜링테스트를 考案했다. 텔레프린터를 통한 對話에서 機械가 사람인지 機械인지 區別할 수 없을 程度로 對話를 잘 이끌어 간다면, 이것은 機械가 "생각"하고 있다고 말할 充分한 根據가 된다는 것이었다. [18] 튜링 테스트는 人工 知能에 對한 最初의 深度 깊은 哲學的 提案으로 評價받는다.

게임 人工知能 [ 編輯 ]

1951年에, 맨체스터 大學의 페란티 마크 1(Ferranti Mark 1) 機械를 使用하여 크리스토퍼 스트레이(Christopher Strachey)는 체커 프로그램을 作成했고, 디트리히 프린츠(Dietrich Prinz)는 체스 프로그램을 作成했다. [19] 아서 새뮤얼(Arthur Samuel)李 50年代 中盤과 60年代 初盤에 開發한 체커 프로그램은 結局 尊敬받는 아마추어에 挑戰할 수 있는 充分한 技術的 發展을 이룩했다. [20]

象徵 推論과 論理 理論 [ 編輯 ]

디지털 컴퓨터에 接할 수 있어진 50年代 中盤에 이르러서, 몇몇 科學者들은 直觀的으로 機械가 數를 다루듯 記號를 다루고, 사람처럼 記號의 本質的인 部分'까지 다룰 수 있을 것이라고 생각했다. [21] 이것은 생각하는 機械를 만드는 새로운 接近 方法이었다. 1956年 [22] 에, 앨런 뉴얼(Allen Newell)과 허버트 사이먼(Herbert A. Simon)은 "論理 理論"을 具現했다. 그 프로그램은 結局 러셀과 화이트헤드의 '數學 原理'에 나오는 52個의 整理中 32個를 證明해냈고, 一部 새롭고 더 優雅한 證據를 찾아내기도 했다. [23]

다트머스 컨퍼런스 1956年: AI의 誕生 [ 編輯 ]

1956 [24] 年에 열린 다트머스 컨퍼런스는 마빈 민스키 존 매카시 , 그리고 IBM의 首席 科學者인 클로드 섀넌 네이선 로체스터 가 開催했다. 컨퍼런스는 "學習의 모든 面 또는 知能의 다른 모든 特性로 機械를 精密하게 記述할 수 있고 이를 시물레이션 할 수 있다" [25] 라는 主張을 包含하여 提案을 提起했다. 參加者는 레이 솔로모노프(Ray Solomonoff), 올리버 셀프理智 (Oliver Selfridge), 트렌처드 모어 (Trenchard More), 아서 새뮤얼(Arthur Smuel), 앨런 뉴얼(Allen Newell)과 허버트 사이먼(Herbert A. Simon)으로, 그들 모두 數十年동안 人工知能 硏究에서 重要한 프로그램을 만들어온 사람들이었다. [26] 컨퍼런스에서 뉴얼과 사이먼은 "論理 理論"을 紹介했고, 매카시는 Artificial Intelligence를 그들의 硏究를 稱하는 이름으로 받아들이길 說得했다. [27] 1956年 다트머스 컨퍼런스는 AI 라는 이름, 目標點, 첫番째 成功과 이를 이룬 사람들, 그리고 넓은 意味의 AI의 誕生을 包含하는 瞬間이었다. [28]

黃金期(1956~1974年) [ 編輯 ]

다트머스 컨퍼런스 以後에, AI라는 새로운 領域은 發電의 땅을 疾走하기 始作했다. 이 期間에 만들어진 프로그램은 많은 사람들을 "놀랍게(astonishing) [29] "만들었는데, 프로그램은 代數學 問題를 풀었고 幾何學의 定理를 證明했으며 英語를 學習했다. 몇 사람들은 이와같은 機械의 "知能的" 行動을 보고 AI로 모든 것이 可能할 것이라 믿었다. [30] 硏究家들은 個人의 意見 또는 出版物들을 통해 樂觀論을 펼쳤고, 完全한 知能을 갖춘 機械가 20年 안에 誕生할 것이라고 豫測했다. [31] ARPA(Advanced Research Projects Agency)같은 政府 機關은 이 새로운 分野에 돈을 쏟아부었다. [32]

作業들 [ 編輯 ]

많은 成功的인 프로그램과 새로운 發展 方向이 50年代 後半과 60年代에 나타났다. 이곳에는 AI 歷史에 至大한 影響을 미친 것들을 記述했다.

探索 推理 [ 編輯 ]

初期 AI 프로그램은 同一한 基本的인 알고리즘을 使用했다. 게임의 勝利나 整理 證明 같은 어떤 目標 達成을 위해, 그들은 한발짝式 나아가는(step-by-step) 方式을 常用했다. 例를 들어 迷路 를 찾아갈때 繼續 나아가면서 막힌 길이 있으면 다른 길이 있는 곳까지 되돌아 왔다가 다른 길로 가는 式이었다. 이런 패러다임은 "探索 推理"라 불렸다. [33] 主要한 問題는, 簡單한 迷路에 있어서도 經路로 使用할 수 있는 수가 天文學的으로 많았다는 것이다. 硏究家들은 推論 또는 經驗的으로 찾은 規則으로 正答이 아닌듯 보이는 經路를 지우는 方式을 使用했다. [34] 뉴엘과 사이먼은 "汎用 問題 解決機(General Problem Solver) [35] "라 부르는 프로그램 속 알고리즘의 汎用的인 버전을 捕捉하려고 努力했다. 다른 "檢索" 프로그램은 幾何學과 代數學의 問題를 解決하는 것처럼 印象的인 作業 - 허버트 게랜터(Herbert Gelenter)의 "幾何學 解決機"나 민스키의 弟子인 제임스 瑟레이글(James Slage)의 SAINT - 을 遂行하길 試圖했다. [36] 다른 프로그램은 目標와 目標에 다가가기 위한 細部 計劃을 檢索했고, 여기에는 스탠포드에서 샤키(Shakey) 로봇의 動作을 制御하기 위해 開發한 STRIPS 시스템을 包含한다. [37]

自然語 處理 [ 編輯 ]

AI 硏究의 重要한 目標는 英語와 같은 自然語로 컴퓨터와 意思疏通할 수 있게 하는 것이었다. 일찍이 다니엘 步로우(Daniel Bobrow)의 STUDENT라는 프로그램은 高等學校 水準의 代數學 單語 問題를 푸는 成功을 보였다. [38] '意味 網'은 槪念을 다른 槪念들 사이의 노드와 링크 關係로 나타낸다. 意味 網을 使用하는 첫番째 AI 프로그램은 로스 퀄리言(Ross Quillian) [39] 이 作成했고 가장 成功이며 同時에 論爭이 많았던 버전은 로거 섕크(Roger Schank)의 "槪念 從屬 理論(Conceptual dependency theory)"이다. [40] 조셉 웨이젠바움(Joseph Weizenbaum)의 ELIZA는 사람들이 그들이 對話를 나누는 때때로 相對가 컴퓨터가 아니라 사람이라고 생각할 程度의 質로 對話했다. 事實, ELIZA는 스스로 생각하여 말하지 않았다. 그 프로그램은 오직 版에 박힌 말을 하거나, 相對에게 方今 말한 말을 다시 해달라고 要請하거나, 相對가 한 말을 몇 個의 文法 法則에 依해 파싱할 뿐이었다. ELIZA는 첫番째 채팅 프로그램이 되었다. [41]

마이크로월드 [ 編輯 ]

1960年代 後半에, MIT의 AI 硏究所에 있던 마빈 민스키 시모어 페퍼트 는 마이크로월드 硏究로 불리는, 人爲的인 簡單한 狀況에 焦點을 맞춘 AI 硏究를 提案했다. 그들은 成功的인 科學者들이 자주 쉬운 理解를 위해 '마찰면'이라든지 '剛體(物理學에서 決코 形態가 變하지 않는 物體)'같은 簡單한 모델을 使用한다는 것에 集中했다. 이런 硏究의 大部分이 平平한 平面 위의 다양한 形態와 色깔의 블록으로 이루어진 '블록 單位의 世界'에 焦點을 맞추는 形式이었다. [42]

제럴드 서스먼(Gerald Sussman)을 筆頭로 아돌포 구스만(Adolfo Guzman), 데이비드 월츠(David Waltz) 그리고 패트릭 윈스턴(Patrick Winston)李 마이크로월드 패러다임으로 機械 비전의 革新을 이끌었다. 같은 時間에, 민스키와 페퍼는 블록을 쌓을 수 있는 로봇 팔을 製作했다. 마이크로월드의 영광스러운 成就는 테리 위노가드(Terry Winograd)의 SHRDLU이며, 이것은 普通의 一般 文章으로 疏通해 作業을 計劃하고 이를 實行할 수 있었다. [43]

樂觀論 [ 編輯 ]

AI 硏究의 첫 番째 世代는 그들의 硏究 結果에 對해 다음과 같이 豫測했다.

  • 1958年, 사이먼(H. A. Simon)과 뉴얼(Allen Newell) : "10年 內에 디지털 컴퓨터가 체스 世界 챔피언을 이길 것이다", 덧붙여 "10年 內에 디지털 컴퓨터는 重要한 새로운 數學的 整理를 發見하고 證明할 것이다"라고 말했다. [44]
  • 1965年, 사이먼 : "20年 內에 機械가 사람이 할 수 있는 모든 일을 할 것이다." [45]
  • 1967年, 마빈 민스키 : "이番 世紀에 AI를 만드는 問題는 거의 解決 될 것이다." [46]
  • 1970年, 마빈 민스키 : (Life 雜誌를 통해서) "3~8年안에 우리는 平均程度의 人間 知能을 가지는 機械를 가지게 될 것입니다." [47]

資金 [ 編輯 ]

1963年 6月, MIT는 220萬 달러를 高等 硏究 計劃局(Advanced Research Projects Agency - 後에 DARPA로 알려짐)에게 제공받았다. 資金은 민스키와 매카시가 5年前 設立한 "AI 그룹"李 包攝한 프로젝트 MAC에서 使用되었다. DARPA는 繼續해서 每年 300萬 달러를 70年代까지 提供했다. [48] DARPA는 또한 類似한 資金을 뉴얼과 사이먼의 CMU 프로그램과 스탠포드 AI 프로젝트에 提供했다. [49] 또다른 重要한 AI 硏究所는 1965年 도널드 미치(Donald Michie)가 에든버러 大學校 에 세웠다. [50] 이 4個의 施設은 繼續해서 많은 年度에 걸쳐 學界의 主要한 AI硏究所, 그리고 資金處로 存在할 것이다. [51] 資金은 몇가지 端緖와 함께 提供됐다 : ARPA의 企劃者 리클리더(J. C. R. Licklider)는 그의 組織은 "프로젝트가 아니라, 사람에게 投資"해야 한다고 믿었고, 硏究者들이 어떤 方向이든 그들의 關心있는 쪽을 硏究하도록 許容했다. [52] 이것은 MIT에 自由奔放한 雰圍氣를 生成했고 해킹 文化를 誕生 [53] 시키기도 했다. 그러나 이렇게 손을 떼고 지켜보는 形式의 支援은 얼마 持續되지 못했다.

AI의 첫番째 暗黑期(1974-1980) [ 編輯 ]

70年代에 이르자, AI는 批判의 對象이 되었고 財政的 危機가 닥쳤다. AI 硏究家들은 그들의 눈앞에 있는 複雜한 問題를 解決하는데 失敗했다. 硏究家들의 엄청난 樂觀論은 硏究에 對한 期待를 매우 높여놓았고, 그들이 約束했던 結果를 보여주지 못하자, AI에 對한 資金 投資는 사라져버렸다 [54] . 同時에, Connectionism 또는 뉴럴網은 지난 10年동안 마빈 민스키의 퍼셉트론(視角과 腦의 機能을 모델化한 學習 機械)에 對한 破壞的인 批判에 依해 完全히 中止되었다. [55] 그러나 70年代 後半의 AI에 對한 좋지 않은 大衆의 認識에도 不拘하고, 論理 프로그래밍, 象徵 推論과 많은 여러 領域에서의 새로운 아이디어가 나타났다. [56]

問題 [ 編輯 ]

1970年代 初, AI 프로그램의 可能性은 制限的이었다. 모든 問題에 걸쳐서 問題를 푸는 印象 깊은 作品들은 겨우 試驗用 버전 程度였고, 어떤 意味에선 '장난감'에 가까웠다. [57] AI 硏究는 70年代에 더 以上 克服할 수 없는 몇個의 根本的인 限界를 가지게 됐다.몇개의 限界를 통해 十餘年 後에 克服되었고, 다른 몇 個는 오늘날까지 남아있다. [58]

  • 컴퓨터 能力의 限界 : 正말 有用한 무언가를 이루기에는 메모리 또는 處理 速度가 充分하지 않았다. 例를 들어 로스 퀼리언(Ross Quillian)의 自然語 處理에서 成功的인 完遂는 오직 20個의 單語 위에서 發揮되었는데, 이것은 메모리가 꽉 찼기 때문이었다. [59] ++한스 모라벡은 1976年에 컴퓨터가 知能을 가지기엔 如前히 數百萬 倍 弱하다고 論證했다. 그는 比喩를 들었는데, AI가 컴퓨터 能力을 必要로 하는 것은 航空機가 魔力을 必要로 하는 것과 같다는 것이었다. 컴퓨터 映像에 對해서, 모라벡은 簡單하게 計算하여 實時間으로 사람의 網膜을 모션 캡처하려면 汎用 컴퓨터가 秒當 10^9 命令語(1000MIPS)를 處理해야 할 것이라고 推測했다 [60] . 2011年頃 實用的인 컴퓨터 映像 프로그램은 10,000~1,000,000 MIPS를 要求한다. 1976年頃 5百萬에서 8百萬 달러사이에 販賣되던 가장 빠른 슈퍼컴퓨터인 Cray-1은 오직 80~130 MIPS였고, 當時 典型的인 데스크탑 컴퓨터는 겨우 1 MIPS 남짓이었다.
  • 暴發的인 組合 數와 費用異性 : 1972年에 里차트 카프(Hichard Karp)는 問題 解決에 指數的 時間이 要求되는 많은 問題를 보여주었다. 하찮은 問題일지라도 이런 問題의 最適의 解答을 찾는 데 想像할 수도 없는 컴퓨터의 時間이 要求되었다. 卽 只今까지 AI '장난감'에서 使用되었던 方法은 實際的으로 有用한 AI 시스템을 製作하는 데 容易하지 못했다. [61]
  • 象徵的 知識과 推論 : 映像 處理나 自然語 處理 같은 많은 重要한 AI 프로그램은 實際 世上에 對한 簡單하지만 어마어마한 量의 情報를 必要로 한다. 그래야 프로그램이 自身이 보고 있는 것이 무엇인지, 또는 自身이 듣고 있는 것이 무엇인지 아이디어를 찾을 수 있기 때문이다. 이 要求는 아기들의 世上에 對해 알아나가는 것과 類似하다. 硏究家들은 곧 要求되는 情報의 量이 엄청나게 廣大하다는 것을 發見했다. 1970年代의 누구도 이런 데이터가 包含된 데이터베이스를 만들지 못했고, 누구도 이런 데이터를 프로그램 혼자 攄得하는 方法을 알지 못했다. [62]
  • 모라벡의 패러독스 : 理論을 製作하고 幾何學的 問題를 解決하는 것은 컴퓨터에게 比較的 쉽지만, 얼굴을 認識하거나 障礙物을 避해 房을 가로지르는 것은 엄청나게 어렵다. 이 說明은 왜 硏究家들이 1970年代에 映像處理나 로봇에 對해 조금밖에 進展을 보이지 못했는지 아는 데 도움이 된다. [63]
  • 프레임 問題, 資格 問題 : 존 脈캐시와 같은 硏究家들은 規則이 規則 스스로의 構造를 變更하지 못하면 關聯 計劃 또는 基本 推論 一般 控除를 나타낼 수 없다는 것을 發見했다. [64]

資金 支援의 中斷 [ 編輯 ]

英國 情報나 DARPA, NRC같은 AI 硏究者들에게 資金을 주던 機關들은 硏究 進行의 不振에 失望했고 結局 AI에 關한 方向性을 가진 資金 支援을 끊었다. 1966年 機械를 利用한 飜譯을 批判하는 報告書가 ALPAC에 提出되었을 때부터 이런 흐름이 始作되었다. 總 2千萬 달러를 支援한 NRC도 支援을 멈췄다. [65] 1973年 라이트힐 報告書는 "壯大한 目標(grandios objectives)"를 成就하는 데 失敗한 英國의 AI 硏究의 狀態에 對해 非難했고 結局 英國의 AI 硏究所는 解體되었다(보고서는 特히 AI 硏究의 失敗의 原因이 暴發的인 組合의 數라고 言及했다 [66] ). [67] DARPA는 CMU의 音聲을 理解하는 硏究의 硏究者들에게 甚하게 失望했고 年間 3百萬 달러의 支援을 取消했다. [68] 1974年에 이르자 AI 硏究에대한 投資는 찾기 어려워졌다. 한스 모라벡은 그의 同僚의 非現實的인 豫測에 依한 危機를 非難했다. "많은 硏究家들이 많은 硏究者는 課長을 增加시키는 웹에 휘말렸다." [69] 그러나 여기엔 다른 이슈가 있다 : 1969年 맨스필드의 修正案의 通過以後, DARPA는 資金 支援에 對해 "非直接的인 基礎 硏究보다, 任務 完遂에 直結된 硏究"를 遂行하라는 增加하는 壓力을 받고 있었다. 創造性 높은 支援, 自由奔放한 硏究는 1960年代와 함께 떠났고 DARPA에서 다시 오지 않을 것이다. 代身, 資金은 自動調整 탱크나 戰鬪 管理 시스템과 같은 분명한 프로젝트와 明確한 目標를 向할 것이다. [70]

캠퍼스 全域의 批判들 [ 編輯 ]

몇 哲學者들은 AI 硏究家들에게 强力한 反對를 표했다. 初期 反對者들 中 괴델의 不完全性의 原理에 依해 컴퓨터 프로그램같은 시스템이 實際的으로 正確하게 사람과 같이 行할 수 없다고 主張한 사람은 존 루커스(John Lucas)이다. [71] 휴버트 드라이퍼스 는 60年代의 깨어진 約束을 嘲弄했고 AI의 家庭을 批判했으며, 人間의 推論이 實際的으론 "象徵的 進行"李 매우 적게 包含되어 있고 具現적, 本能的, 無意識的인 노하우 [72] [73] 에 依해 處理된다고 主張했다. 존 설 의 1980年代 提示된 中國人 房 問題는, 實際로 프로그램이 象徵들을 '理解'할 수 없고 使用할 수 없음을 보여주려고 試圖했다. 說은 萬若 象徵이 機械에게 아무 意味가 못된다면, 機械는 생각하는 것이 아니라고 主張했다. [74] 이 非難은 AI 硏究家들에게 深刻하게 作用하지 못했다. 費用異性과 常識的 知識에 關한 問題가 훨씬 더 卽刻的이고 深刻한 듯이 보였다. '노하우'와 '志向性'이 實際 프로그램을 만드는데 어떻게 다른지가 不分明했다. 민스키는 드라이퍼스와 설을 向해 "그들은 誤解했고, 無視될 것이다 [75] "라고 했다. MIT에서 가르쳤던 드라이퍼스는 冷待받았다 : 그는 나중에 AI 硏究家들에게 "나와 點心 食事할 勇氣도 없다 [76] "라고 評했다. ELIZA의 製作者 조셉 웨이즌바움(Joseph Weizenbaum)은 그의 同僚인 드라이퍼스가 專門的이지 않고 誘致한 待遇를 한다고 느꼈다. 웨이즌바움은 케네스 콜비(Kenneth Colby)가 쓴 DOCTOR와 臨床治療 채팅봇에 對해서 深刻하게 疑心하기 始作했다. 웨이즌바움은 콜비가 그의 무심한 프로그램을 眞摯한 治療 道具로 여기는 걸 妨害했다. 이 不和가 始作되고, 이 狀況은 콜비가 웨이즌바움을 프로그램에 對한 功勞로 認定하지 않았을 때 도움이 되지 않았다. 1976年에 웨이즌바움은 컴퓨터 能力과 人間 推論(Computer Power and Human Reason)을 出版하며 人工 知能의 誤用이 人間의 삶을 評價 切下시킬 수도 있다고 主張했다. [77]

퍼셉트론과 連結網의 어두운 時代 [ 編輯 ]

뉴럴 네트워크 形態의 퍼셉트론이 1958年 마빈 민스키의 高等學校 時節 親舊였던 프랭크 로센블랫(Frank Rosenblatt)에 依해 導入되었다. 다른 AI 硏究家들이 그러하듯, 그는 樂觀論을 펼쳤고, "퍼셉트론은 結局 學習을 하고, 意思 決定을 하고, 言語 飜譯을 할 것이다"라고 豫見했다. 60年代를 이끌던 패러다임 속의 硏究 프로그램의 遂行은 1969年 민스키와 페퍼의 冊 퍼셉트론의 出版과 함께 갑자기 中止되었다. 이것은 퍼셉트론이割 수 있는 일에 몇가지 深刻한 制限이 있음을, 또 프랭크의 豫見은 甚하게 誇張되어있음을 알렸다. 이 冊의 波及力은 壓倒的이었다 : 向後 10年 동안 뉴럴 네트워크에 對한 거의 모든 硏究가 中止되었다. 結局, 뉴럴 네트워크 領域을 回復할 硏究院의 새로운 世代가 그 後에 人工知能의 重要하고 有用한 部分을 내놓았다. 爐센블랫은 이 冊을 보지 못했는데, 그는 問題의 冊이 出版 되고 곧바로 보트 事故와 함께 死亡했기 때문이다. [78]

깔끔이 : 論理, 프롤로그와 專門家 시스템 [ 編輯 ]

論理的 推論은 1958年 秒에 AI 硏究에서 존 매카시가 提案하여 導入되었다. [79] 1963年 알렌 로빈슨(J. Alan Robinson)은 簡單하게 推論을 컴퓨터에 具現시키는 分解와 統一 알고리즘을 發見했다. 그러나 매카시와 그의 學生들이 60年代 後半에 했던 것과 같은 複雜하지 않은 具現은 本質的으로 다루기 힘들었는데, 簡單한 整理를 證明하기 위해 天文學的 段階가 必要했다. [80] 더 成功的인 結實을 맺는 論理的 接近은 70年代 에딘벌 大學의 로버트 코왈스키(Robert Kowalski)가 開發했고 곧 프랑스의 硏究家인 알라인 콜메루엘(Alain Colmerauer)과 成功的인 論理 프로그래밍 言語인 프롤로그를 만든 필립 오우셀(Philippe Roussel)과의 協業을 이끌어냈다. [81] 프롤로그는 다루기 쉬운 計算을 許容하는 論理의 部分을 使用한다. 規則은 繼續的으로 影響을 미쳤고, 에드워트 페이젠바움(Edward Feigenbaum)李 期待하던 시스템 基礎를 提供했으며 알렌 뉴엘과 허버트가 繼續 硏究하도록 만들었다. 사이먼은 Soar과 認識에서의 統一 理論을 이끌었다. [82] 論理的으로의 接近을 批判하는 指摘은, 드라이퍼스가 했던데로, 사람이 問題를 解決할 때 論理를 거의 使用하지 않는다는 것이었다. 피터 왓슨(Peter Waon), 엘리너 老視 , 아모스 트버스키 , 대니얼 카너먼 을 비롯한 心理學者들이 이를 證明했다. [83] 매카시는 이에 對해서 이 證明이 無關하다고 答했다. 그는 正말 必要한 機械란 사람처럼 생각하는 것이 아니라 問題를 解決할 줄 아는 機械라고 一蹴했다. [84]

지저분이 : 프레임과 스크립트 [ 編輯 ]

매카시의 接近에 對한 批評家들의 大多數가 그의 同僚인 MIT 所屬이었다. 마빈 민스키와 사무엘 페퍼와 로저 샹크는 機械를 사람처럼 느껴지도록 만드는 "이야기 理解"와 "物體 認識"의 問題를 解決하려고 努力했다. "椅子"나 "飮食店" 같은 一般的인 槪念을 使用할 때 사람들은 모두 非論理的으로, 사람들이 通用하는 汎用的 家庭을 함께 했다. 不幸하게도 이런 不正確한 家庭들은 論理的 節次로 代表하기가 힘들었다. 제럴드 서스먼(Gerald Sussman)은 "本質的으로 不正確한 槪念을 說明하기위 해 正確한 言語를 使用하는 瞬間 그들은 더以上 不正確하다고 말할 수 없다" [85] 라고 표했다. 또한 섕크는 이에 對해 "非論理的" 接近 卽 "지저분이"가 매카시, 코와스키, 페이젠바움의 "깔끔이" 패러다임과 反對에 있다고 評했다. [86]

1975年 세미나 報告書에서, 민스키는 "지저분한" 많은 그의 同僚 硏究者들이 무언가에 對한 우리의 모든 常識的 家庭을 捕捉하는 프레임워크를 道具로 使用했다고 적었다. 例를 들어 우리가 새라는 槪念을 생각할때, 卽時 '난다', '벌레를 먹는다'와 같은 다양한 事實들 또한 떠올린다. 떠올린 것들이 恒常 事實은 아니고 또 "論理的"으로 이것들이 控除가 되지는 않는다. 그러나 이런 家庭들의 構造는 우리가 말하고 생각하는 文章의 部分을 차지한다. 그는 이 構造를 "프레임"이라 稱했다. 섕크는 프레임의 說明에 對해서 英語로된 짧은 스토리에 對한 答辯을 成功的으로 하기 위한 "스크립트"라 불렀다. [87] 數年 後 客體志向 프로그래밍에서 AI 硏究에서 쓰였던 프레임에서 나온 '相續'이라는 槪念을 採擇하게 된다.

AI붐 (1980-1987) [ 編輯 ]

1980年代에는 全 世界的으로 使用된 ‘專門家 시스템’이라고 일컫는 人工知能 프로그램의 形態였고 人工知能 檢索에 焦點이 맞춰졌다. 같은 時期에 日本 政府는 自身들의 5世代 컴퓨터 프로젝트와 人工知能에 積極的으로 投資하였다. 1980年代에 존 홉필드와 데이비드 壘멜하트의 神經網 理論의 復元이라는 또 다른 事件이 있었다.

專門家 시스템의 發展 [ 編輯 ]

專門家 시스템은 特定 知識의 範圍에 對해 問題를 解決해주거나 質問에 對答해주는 프로그램이며 專門家의 知識에서 派生 된 論理的 法則을 使用하였다. 最初의 實驗은 1965年 Edward Feigenbaum과 레더버그에 依해 Dendral이 始作하였고 이것은 分光計로부터 化合物을 識別하는 實驗이었다. MYCIN은 1972年에 開發되었고 傳染되는 血液 疾患을 診斷하였다. 이러한 接近法(實驗)은 妥當性이 立證되었다. [88]

專門家 시스템은 小規模의 知識 領域에 對해서는 스스로 制限을 둠으로써 常識 問題를 避하였다. 그리고 그들의 單純한 디자인은 프로그램을 만드는 것을 相對的으로 쉽게 하였다. 모든 프로그램은 有用性이 立證되어야 하지만 AI는 이 點을 達成할 수 없었다. [89]

1980年, XCON이라 불리는 專門家 시스템은 디지털 裝備 會社인 CMU에서 完成되었다. 이 시스템은 每年 4千萬 달러를 節約시켜주며 매우 큰 成果를 나타냈다. [90] 全 世界의 會社들은 1985年에 1億 달러 以上을 AI에 使用하여 이를 開發하고 專門家 시스템을 配布하였다. Symbolics, Lisp Machines과 같은 하드웨어 會社와 IntelliCorp, Aion 等의 소프트웨어 會社들이 이를 支援하면서 같이 成長하였다. [91]

知識 革命 [ 編輯 ]

專門家 知識들을 包含하면서 專門家 시스템의 힘은 頭角을 나타내었다. 이것은 1970年代 내내 硏究하였던 AI 硏究 技法의 새로운 方向 中 一部分이었다. “AI 科學者들은 知能이란 것이 다른 方法들로 많은 量의 다양한 知識들을 使用하는 能力에 基盤한 것이라고 疑心하기 始作했다.” [92] 知識 基盤 시스템과 知識 엔지니어링은 1980年代 AI 硏究者들의 메인 포커스가 되었다. [93]

또한 1980年代에는 一般人들이 모두 알 만한 日常的인 事實들을 모두 包含한 아주 巨大한 데이터베이스를 만들어 常識 問題에 對한 直接的 解決을 試圖한 Cyc의 誕生을 볼 수 있었다. 이 프로젝트를 이끈 Douglas Lenat는 지름길은 없다고 말했다. - 機械가 人間의 槪念을 알게 하기 위한 單 한 가지 길은 그들을 가르치는 것이다. 이 프로젝트는 數 十 年 동안 完了될 것이라 생각되지 않았다. [94]

돈은 되돌아온다 : 5世代 프로젝트 [ 編輯 ]

1981年, 日本의 國際 貿易과 産業 部署는 5世代 컴퓨터 프로젝트를 위해 8億 5千萬 달러를 確保해 두었다. 그들의 目的은 機械가 사람처럼 프로그램을 作成하고 對話를 遂行할 수 있는 시스템과 言語를 飜譯하거나 그림을 解釋하는 것이었다. 그들은 프로젝트를 위해 基本 컴퓨터 言語로 Prolog를 選擇하였다. [95]

다른 나라들은 그들만의 固有한 프로그램을 開發하였다. UK는 3億 5千萬 달러를 들여 Alvey 프로젝트를 始作했다. 美國 會社들의 컨소시엄은 情報技術과 AI안의 巨大한 프로젝트를 投資받기 위해 마이크로 電子工學科 컴퓨터 技術 協力이라는 形態를 取했다. [96] [97] 또한 1984에서 1988年 사이에 DARPA는 戰略的 컴퓨팅 計劃을 設立하고 AI에 對한 投資를 歲拜로 늘렸다. [98]

神經網 理論의 復歸 [ 編輯 ]

1982年 , 物理學者 John Hopfield는 (現在 ‘Hopfield net’이라고 불리는) 完璧한 새로운 길에서 情報를 프로세스하고 배울 수 있는 神經網의 形態를 證明해냈다. 이 時期에, David Rumelhart는 (Paul Werbos에 依해 發見된) “역전파”라고 불리는 神經網을 改善하기 위한 새로운 方法을 알리고 있었다. 이러한 두 가지 發見은 1970年 以後 버려진 神經網 理論이라는 分野를 復舊시켰다. [99] [100] 새로운 分野는 1986年 分散 竝列處理의 形態로부터 靈感을 받았고 이와 같은 形態로 統一되었다. 2卷 分量의 論文 集合은 Rumelhart와 物理學者인 James McClelland에 依해 編輯되었다. 神經網은 1990年代에 光學 文字 認識 및 音聲 認識과 같은 프로그램의 驅動 엔진으로 使用되며 商業的으로 成功했다. [101] [102]

AI의 두番째 暗黑期 1987-1993 [ 編輯 ]

AI와 비즈니스 커뮤니티의 魅力은 喪失했고 經濟 거품이라는 古典的 形態의 1980年代에 빠졌다. 崩壞는 政府機關과 投資者들의 ‘該當 分野는 繼續해서 批判에도 不拘하고 進步해왔다.’는 認識에 비롯된 것이었다. 로봇 工學 分野에 關聯 된 硏究原因 Rodney Brooks 와 Hans Moravec는 人工知能에 對한 完全히 새로운 接近 方式을 主張하였다.

人工知能의 겨울 [ 編輯 ]

1974年에 專門家 시스템에 對한 熱情이 統制할 수 없을 程度로 퍼져나가고 이에 對한 失望이 確實히 따라올 것이라는 걱정이 있었고 이 때 投資家 끊기고 살아남은 硏究員들에 依해서 “AI winter”이라는 單語가 만들어졌다. [103] 그들의 두려움은 AI에 對해 一連의 財政的 蹉跌이 있었던 1980年 末에서 1990年代 初盤에 잘 나타난다. 이 AI winter 期間의 첫 番째 事件은 1987年에 特性化된 AI 하드웨어 市場이 갑자기 무너진 것이다. 1987年에 애플이나 IBM의 데스크탑 컴퓨터들은 急激히 빨라지고 性能이 좋아졌다. 또한 Symblics과 其他 會社들이 만든 데스크탑 컴퓨터 보다 더 비싼 Lisp 機器들보다도 더욱 좋은 性能을 나타냈다. 卽, 더 以上 Lisp 機器들을 살 理由가 사라진 것이다. 全體産業 1億 달러의 折半의 價値가 하룻밤에 사라졌다. [104] 結局 最初의 成功한 專門家 시스템인 XCON은 維持하기에 너무 비싸다는 것이 證明되었다. 업데이트하기에도 너무 어려웠고 學習도 되지 않았다. 이 專門家 시스템은 또한 一般的이지 않은 質問을 했을 때 怪常한 行動을 하는 一名 "brittle" 이었고 그들은 일찍이 發見된 이러한 問題들에 依해 結局 犧牲되었다. 專門家 시스템은 특별한 境遇에서만 有用할 뿐이었다. [105] 1980年代 後半, Strategic Computing initiative는 AI의 投資를 자르는 데 功이 컸다. DARPA의 새로운 리더쉽은 AI는 이 다음의 波濤가 아니라고 決定했고 卽刻的인 結果를 나타낼 수 있는 것으로 보이는 프로젝트에 直接的인 投資를 하는 方向으로 決定했다. [106] 1991年에는 1981年에 日本에서 5世代 프로젝트의 目標 리스트에 적은 것만큼 成果가 나오지 않았다. 實際로 對話를 繼續 이어나가는 것과 같은 어떤 것들은 2010年까지 達成되지 않았다. 다른 人工 知能 프로젝트와 마찬가지로, 實際 可能했던 것보다 期待가 훨씬 컸다. [107]

몸통을 갖는 것의 重要性: Nouvellle AI and embodied reason [ 編輯 ]

1980年代 後半 , 몇몇 硏究員들이 로봇 工學을 基盤으로 人工 知能에 完全히 새로운 接近法에 對해 贊成하였다. [108] 그들은 實際 知能을 보여주려면 機械에도 몸통이 必要하다고 믿었다. - 機械 또한 이 世上에서 認識하고, 移動하고, 살아남고 去來할 줄 알 必要가 있다. 그들은 이런 感覺 運動 技術은 常識的인 推論과 같은 더 높은 段階의 技術이 必要하다고 말했고 實際로 抽象的인 推論은 人間의 가장 흥미롭거나 重要한 技術이다. 그들은 知能을 바닥에서부터 지어야 한다고 내세웠다. [109] 人工 頭腦와 制御 理論에서부터 얻은 接近法은 1960年代까지 人氣가 없었다. 또 다른 先驅者인 David Marr는 神經 科學 理論으로 한 그룹의 비전을 이끌어 成功的인 背景으로 1970年代에 MIT에 들어왔다. 그는 모든 常識的인 接近法(McCarthy's logic and Minsky's frames)을 拒絶했고 AI는 視角에 對한 肉體的인 機械裝置를 심볼릭 프로세싱 하기 前에 가장 바닥에서부터 위로 理解할 必要가 있다고 말했다. [110]

1990年에 Elephants Don't Play Chess 論文에서, 로봇 工學 硏究者인 Rodney Brooks는 直接的으로 物理的 심볼 시스템 假說에 焦點을 맞추었고 심볼들은 恒常 必要한 것은 아니라고 말했다. “世界는 그 自體만으로 가장 훌륭한 모델이다. 이것은 恒常 最新이며 모든 細部事項이 存在한다. 祕訣은 適切히 그리고 充分히 자주 感知하는 것이다. [111] 80年代와 90年代에 많은 cognitive 科學者들은 또한 思考方式의 심볼 處理 모델을 拒絶하고 推論에 몸통은 必須的이라고 말했고 이러한 理論을 embodied mind 理論이라고 불렀다. [112]

AI 1993-現在 [ 編輯 ]

只今보다 半世紀는 더 오래된 AI의 分野는 마침내 가장 오래된 目標 中 몇 가지를 達成했다. 이것은 비록 뒷받침해주는 役割이었지만 技術 産業에 걸쳐 成功的으로 使用되었다. 몇 가지 成功은 컴퓨터의 性能이 增加했기 때문이고 또 다른 몇 가지는 孤立된 問題들에 對해 集中하였고 높은 科學的 義務感으로 해 나갔기 때문에 解決되었다. 적어도 비즈니스 分野에서의 AI의 評判은 如前히 처음 같지 않다. 이 分野 內에서는 1960年代 世界의 想像이던 人間 水準의 知能의 꿈을 實現하는 것이 失敗로 돌아갔다는 理由로 몇 가지 合意를 하였다. 下位 파트에서 AI의 一部分을 도와주던 모든 要素들은 特定 問題나 接近 方式에 焦點이 맞추어졌다. [113] 그 後, AI는 여태 해왔던 것보다 더욱 신중해졌고 더욱 成功的이였다. 또한 保安이 重要한 이슈로 떠올랐다. 人工知能의 保安이슈로는 學習된 人工知能을 속일 수 있는 攻擊形態人 Poisoning Attack, Evasion Attack, 人工知能 모델 自體를 奪取할 수 있는 Model Extraction Attack, 學習된 모델에서 데이터를 抽出해내는 Inversion Attack 等이 있다. [114]

成功 事例와 무어의 法則 [ 編輯 ]

1997年 5月 11日, 딥 블루 는 當時 체스 世界 챔피언이던 가리 카스파로프 를 이긴 最初의 체스 플레이 컴퓨터가 되었다. [115] 2005年 스탠퍼드의 로봇은 DARPA 그랜드 챌린지에서 練習해 보지 않은 沙漠 道路 131마일을 自動으로 運轉하여 優勝하였다. [116] 2年 뒤, CMU의 한 팀은 DARPA 都市 챌린지에서 모든 交通 法規를 지키고 交通 混雜 속에서 自動으로 55 마일의 길을 찾았다. [117] 2011年 2月, 퀴즈 쇼 Jeopardy! 에 出戰한 IBM의 應答 시스템 왓슨은 相當히 餘裕롭게 두 챔피언을 이겼다. [118]

이러한 成功은 革新的인 새로운 패러다임 때문이 아니라 번거로운 엔지니어 스킬과 매우 뛰어난 性能을 가진 오늘날의 컴퓨터에서 비롯된 것이다. [119] 實際로, Deep Blue의 컴퓨터는 1951年 Christopher가 체스 하는 法을 가르친 마크 1보다 1千萬 倍 빨랐다. [120] 이 엄청난 增加는 무어의 法則 에 依해 測定되는데 이것은 2年마다 컴퓨터의 메모리 速度와 孃은 두 倍씩 늘어난다는 理論이다. 最初 컴퓨터 性能의 根本的인 問題는 느리지만 徐徐히 克服되고 있었다.

知能型 에이전트 [ 編輯 ]

1990年代 동안에는 ‘ 知能型 에이전트 ’라고 불리는 새로운 패러다임이 다 方面에서 收容되고 있었다. [121] 비록 以前의 硏究者들은 'divide and conquer' 모듈러를 提案하고 AI에 接近하였지만 [122] 知能型 에이전트는 Judea Pearl, Allen Newell 等 다른 이들이 AI를 硏究하는데 있어서 決定論과 經濟性이라는 槪念을 가져오기 前까지 現代式 形態를 갖추지 못했다. [123] 經濟學者들의 合理的 에이전트라는 正義와 컴퓨터 科學者들의 客體 或은 모듈러 正義가 합쳐졌을 때 知能型 에이전트의 패러다임이 完成되었다.

知能型 에이전트 시스템은 環境을 認識하고 成功을 가장 極大化할 수 있는 行動을 取한다. 이러한 定義에 依하면 人間과 人間의 組織처럼, 例를 들어 會社처럼 特定 問題를 解決하는 簡單한 프로그램을 知能型 에이전트라고 한다. 知能型 에이전트는 AI 硏究者를 “the study of intelligent agents"로 定義한다. 이것은 AI의 正義의 一部를 一般化한 것이다. 이것은 人間의 知能을 넘어 모든 種類의 知能의 硏究를 追求한다. [124]

이러한 패러다임은 當時 硏究者들이 孤立 問題에 對해 硏究하고 다양하고 有用한 解決法을 찾도록 해주었다. 또한 서로서로 問題와 解決策을 共通의 言語로 表現하였고 抽象的 에이전트를 使用한 經濟學이나 制御 理論 等과 같은 다른 槪念에도 使用되었다. 어떤 硏究者들은 知能型 에이전트의 相互 作用에서 더 다양하고 知能的인 시스템을 만들기로 하였고 完全한 에이전트 아키텍처가 되기를 바랐다. [125] 이것이 21世紀의 普遍的인 敎科書들이 人工 知能을 定義하는 方式이다. [126] [127]

깔끔함의 勝利 [ 編輯 ]

AI 硏究者는 過去에 使用했던 것보다 더욱 精巧한 數學的 道具를 使用하여 開發하기 始作했다. [128] 解決하는 데 AI가 必要한 수많은 問題들이 存在하고 있다는 認識은 數學, 經濟學 또는 오퍼레이션 硏究 等의 分野에서 이미 硏究者들이 AI를 使用하여 實現하고 있었다. 共有된 數學的 言語는 높은 水準의 協力, 좋은 評判, 여러 分野를 成功的으로 이끌고 測定과 證明이 된 結果들의 成就를 可能하게 하였다. AI는 더 嚴格한 科學 學問이 되었다.

이는 革命 그 自體였으며 "깔끔함"의 勝利였다. [129] [130] Judea Pearl의 매우 影響이 큰 1988年 冊은 AI에 決定論과 確率을 大入시켰다. [131] 使用 中인 많은 새로운 道具(Bayesian networks, hidden Markov models, information theory, stochastic modeling)와 旣存의 古典的이 方法들이 最適化되었다. 더 精密한 數學的 模型이 神經網 네트워크와 鎭火 알고리즘과 같은 演算 知能的 패러다임을 위해 開發되었다. [132]

조용한 發電 [ 編輯 ]

AI 硏究者들에 依해 最初로 開發된 알고리즘은 巨大한 시스템의 一部로 나타나기 始作했다. AI는 매우 어려운 問題 [133] 들을 解決했고 데이터 마이닝, 産業 로봇工學, 論理學 [134] , 音聲 認識 [135] , [151]銀行 소프트웨어, [136] 醫學的 診斷, 구글 檢索 엔진 [137] 等 여러 技術들은 技術 産業 [138] 에 매우 有用하다는 것이 證明되었다.

AI 分野는 이러한 成功에 對해 매우 낮은 信賴를 받았다. AI의 훌륭한 革新 中 大部分은 컴퓨터 科學의 道具에서 또 다른 機能으로 細分化되었다. [139] Nick Bostrom은 "A lot of cutting edge AI has filtered into general applications, often without being called AI because once something becomes useful enough and common enough it's not labeled AI anymore."라고 말했다. [140] 1990年代 AI 分野의 많은 硏究者들이 故意로 自身의 프로젝트를 다른 이름으로 불렀다. 一部 이러한 現象은 그들의 分野가 AI와 根本的으로 다르다고 여겼기 때문이거나 또는 새로운 이름이 投資받기 쉬웠기 때문일 것이라고 한다. 적어도 商業 分野에서는 硏究者에 對해 AI winter에 있었던 失敗했던 契約이 꼬리票처럼 따라다녔고 2005年에 뉴욕 타임즈에서는 “컴퓨터科學科 소프트웨어 엔지니어들은 狂氣에 싸인 夢想家처럼 보일 두려움 때문에 人工 知能이란 用語를 避했다.” 라고 紹介되었다. [141] [142] [143]

HAL 9000은 어디에 있는가? [ 編輯 ]

1968年 아서 C. 클라크 스탠리 큐브릭 은 2001年에는 機械가 人間과 類似하거나 또는 人間의 容量을 뛰어넘는 知能을 가진 存在가 되었을 것이라고 想像하며 《 2001: 스페이스 오디세이 》라는 SF 作品을 完成했다. 여기에 登場하는 HAL 9000 이라는 캐릭터는 2001年에 이러한 機械가 存在할 거라고 믿는 많은 AI 硏究者들의 共有된 믿음을 基盤으로 만들어졌다. [144]

後날 마빈 민스키 는 “그래서 왜 우린 2001年에 HAL을 얻지 못했나?”라는 質問을 하였다. [145] 大部分의 硏究者들이 神經網이나 遺傳子 알고리즘의 商業的 用途의 프로그램을 追求했던 反面, 민스키는 解答이 放置된 常識 推論과 같이 매우 中心的인 問題에 있다고 믿었다. 反面에 존 매카시 는 如前히 資格問題를 非難하였다. [146] 레이 커즈와일 은 問題는 컴퓨터 性能에 있으며 무어의 法則을 使用하였을 때 人間 水準의 知能을 가진 機械는 約 2029年에 나올 것이라고 豫見하였다. [147] 제프 호킨스(Jeff Hawkins)는 神經網 硏究者들이 大腦 皮質의 本質的인 性質을 無視하고 簡單한 問題들을 成功的으로 解決하는 簡單한 모델을 追求했다고 말했다. [148] 또한 各各에 對해 많은 說明들이 있으며 이를 對應하는 進行 中인 硏究 프로그램들이 있다.

人工知能과 4次 産業革命 [ 編輯 ]

世界는 이미 4次 産業革命에 進入했으며 人工知能은 빠르게 人間을 代替해 나갈 것이다. 또, 널리 퍼져 있지 않을 뿐 未來는 이미 와 있으며 人工知能, IoT, 클라우드 컴퓨팅, 빅데이터 等이 融合되면서 4次 産業革命이 發生하고 있다. 過去 産業革命이 ‘機械筋肉’을 만드는 課程이었다면 4次 革命에서는 ‘機械頭腦’가 誕生할 것이다. [149]

第1次 産業革命 發生時, 産業 機械에 依해 일자리를 잃을 것이 두려웠던 勞動者들이 러다이트 (機械破壞運動)를 일으켰다. 이와 類似하게, 人工 知能에 依한 4次 産業革命으로, 많은 사람들이 未來에 일자리를 잃을 것을 憂慮하고 있다. 한 온라인 設問調査 [150] 에 따르면, 應答者의 70.1%가 未來에 人工知能에 依해 人間의 職業이 줄어들 것이라고 豫想했다.

實驗的인 AI 硏究 [ 編輯 ]

人工知能은 1959年 MIT AI硏究所를 設立한 매카시와 마빈 민스키, 카네기멜론 大學校 에 人工知能 硏究所를 만든 앨런 뉴웰 허버트 사이먼 과 같은 開拓者들에 依해 1950年度에 實驗 學問으로 始作되었다. 이들 모두는 1956年에 매카시, 민스키, IBM 의 羅緞 로체스터 와 클라우드 샤논에 依해 組織되어 열린, 이미 言及된 다트머스 大學의 여름 AI 콘퍼런스에 參加하였다.

歷史的으로, 人工知能 硏究는 두 個의 部類 -- 깔끔이(Neats)와 지저분이(Scruffies) -- 로 나눌 수 있다. 깔끔이는 우리가 傳統的 或은 記號的(symbolic) 人工知能 硏究라고 부르는 分野로서, 一般的으로 抽象的인 槪念에 對한 嗜好的 演算과 專門家 시스템(expert systems)에 使用된 方法論을 가르친다. 이와 相反된 領域을 우리는 지저분이(Scruffies) 또는 連結主義者(connectionist)라 부르는데, 시스템을 構築하여 知能을 具現/進化시키려고 試圖하고, 特定 任務를 完遂하기 위해 規則的인 디자인을 하기보다는 自動化된 프로세스에 依해서 知能을 向上시키는 方式이다. 가장 代表的인 例로 神經網 (neural network)이 있다. 이 두 가지 接近法은 人工知能 歷史의 매우 草創期부터 함께 했다. 1960年代와 1970年代를 거치며 scruffy 接近法은 注目받지 못했지만, 1980年代 깔끔이 接近法의 限界가 明確해지면서 다시 注目 받게 되었다. 그러나 現在 두 가지 方式을 使用하는 그 어떤 最新의 人工知能 알고리즘度 確實한 限界가 있다는 것이 明確하다.

特히 1980年代에 들어서 Back propagation (人工知能 學習方法: Training Method)가 紹介되면서 많은 硏究가 進行되었음에도, 神經網을 利用한 人工知能은 아직 初步段階이다. 人工神經網 (Artificial Neural Networks)을 利用한 많은 硏究가 現在에도 進行되고 있지만, 몇 가지 障礙로 인해서 實用化하기엔 아직도 먼 技術이다. 人工神經網을 利用한 人工知能이 어느 程度 實用化되기 위해선 于先 實效性 있는 學習方法 (Training Methods)이 必要하다. Back propagation을 利用한 學習方法이 提案되어 硏究되고 있지만, 完全한 學習을 이룰 수 없을 뿐만 아니라, 學習에 使用되는 data들이 서로 orthonormal해야 하는 條件 때문에 恒常 不完全한 學習으로 끝나기 쉽다. (Converge to Local Mimimum, not to the optimal minimum: 地域最適해에 머뭄. 卽, 눈먼 장님이 가장 낮은 低地帶를 찾는 境遇 各 現在 支店에서 아래로 내려가려는 性質이 있는데 이때 눈먼 奉仕이므로 特定 地點의 低地帶에 到達한 境遇, 그 地點에선 어디로 가거나 위로 올라가는 것만 있으므로 앞에 說明한 性質에 依해 바로 前에 찾은 低地帶 남으려 하는 性質이 있다는 것을 의미함). 이러한 短點들을 補完하기 위해서 Fuzzy Logic, Neurofuzzy (Neural fuzzy logic) and Genetic Algorithms等을 利用한 學習方法이 硏究되고 있으나 展望이 밝지만은 않은 狀態이다.

美國의 DARPA (美 國防部 最新 技術 硏究 프로젝트 管理局)과 日本의 5世代 컴퓨터 프로젝트에 依해서 1980年代 人工知能 硏究는 엄청난 硏究 基金을 支援 받을 수 있었다. 몇몇 人工知能 先覺者들이 거둔 注目할 만한 結果에도 不拘하고, 卽刻的인 結果를 算出하는 데 失敗하게 된다. 이것은 1980年代 後半 人工知能 硏究 基金에 對한 大幅的인 削減을 招來하였고, 人工知能 硏究의 沈滯期를 뜻하는 人工知能의 겨울을 가져왔다. 1990年代, 많은 人工知能 硏究家들은 좀 더 具體的인 目的 아래 機械 學習 , 로보틱스 , 컴퓨터 비전 과 같은 人工知能과 關聯된 細部 領域으로 移動하였고, 純粹하고 普遍的인 人工知能에 對한 硏究는 매우 制限的으로 遂行되고 있다.

人工知能 技術의 實用的인 應用 [ 編輯 ]

人工知能의 窮極的인 目標인 人間과 같은 知能의 開發이 어려움을 겪자, 다양한 應用 分野가 나타나게 되었다. 代表的인 例가 LISP Prolog 와 같은 言語인데, 애初에 人工知能 硏究를 위해 만들어졌으나 只今에 와서는 人工知能과 關聯이 없는 分野에서도 使用되고 있다. 해커 文化도 人工知能 硏究室에서 만들어졌는데, 이 中에서도 다양한 時期에 매카시 , 민스키 , 페퍼트 , 位노그라드 (SHRDLU를 만든 뒤에 人工知能을 抛棄했다)와 같은 有名人의 母胎가 된 MIT 人工知能 硏究所 가 有名하다.

다른 많은 시스템들이 한때 人工知能의 活潑한 硏究 主題였던 技術들에 바탕을 두고 만들어졌다. 그 例들은 다음과 같다:

  • 체커스 게임에서 Chinook은 사람과 機械를 統合한 世界 챔피언을 차지했다. (1994年)
  • 체스 를 두는 컴퓨터인 딥 블루(Deep Blue)의 性能 向上 버전(非公式的 名稱: 디퍼 블루(Deeper Blue)李 當時 世界 체스 챔피언 가리 카스파로프 를 물리쳤다. (1997年)
  • 不確實한 狀況에서 推論을 遂行하는 技術인 퍼지 論理 가 工場의 制御 시스템에서 廣範圍하게 使用되고 있다.
  • 專門家 시스템 이 産業的으로 利用되고 있다.
  • 아직은 人間 飜譯士에 미치지 못하지만, 시스트란 (Systran)과 같은 自動飜譯機가 廣範圍하게 使用되고 있다.
  • 人工神經網 이 侵入 探知 시스템에서 컴퓨터 게임 까지 多樣한 分野에 使用되고 있다.
  • 光學 文字 判讀 시스템은 無作爲로 生成된 타자 文書를 텍스트 形態로 變換시킬 수 있다.
  • 筆記體 認識 시스템이 數百萬의 PDA 에서 使用되고 있다.
  • 音聲 認識 技術은 商業的으로 利用 可能하고 廣範圍하게 適用되고 있다.
  • 컴퓨터 臺數 시스템인 매스매티카 나 Macsyma와 같은 시스템들은 흔하게 使用되고 있다.
  • Machine vision 시스템들이 하드웨어 檢査나 保安 分野와 같은 다양한 産業 現場에서 利用되고 있다.

人工知能 分野와 科學 小說 分野에서는 人工知能 시스템이 人間 專門家의 判斷을 代替하리라는 豫想이 繼續해서 提起되어 왔다. 오늘날에는 몇몇 工學이나 醫藥 조제 같은 特定 分野에서 專門家 시스템이 人間 專門家의 判斷을 補助하거나 代替하고 있다.

人工知能의 理論的인 結果 [ 編輯 ]

어떤 사람들은 現在 알려진 어떤 시스템보다도 知能的이며 複雜한 시스템의 登場을 豫見하기도 한다. 이와 같은 假想敵인 시스템들을 '非決定的인 人工知能 시스템'의 弱者인 atilect라고 한다. 이와 같은 시스템이 만들어진다면 그동안 人類에게 問題視되지 않았던 많은 倫理的인 問題들이 發生하게 된다.

이에 對한 討論은 時間이 흐름에 따라 '可能性'보다는 '意圖'에 漸漸 焦點을 맞추게 되었다. 이러한 焦點의 移動은 휴고 더개리스(Hugo de Garis)와 케빈 워릭(Kevin Warwick)에 依해 提起된 "Cosmist"(反對말은 "Terran") 論爭에 依해 이루어졌다. 더개리스에 따르면 Cosmist란 더욱 知能的인 種族을 人間의 後繼種으로 만들어 내기 위해 努力한다. 이러한 論議로 미루어 볼 때, '意圖'의 問題가 初期 人工知能 "反對派"들에게 큰 問題였음을 알 수 있다.

興味로운 倫理的 問題를 提起하는 主題는 다음과 같다.

  • 우리가 만든 시스템이 知能을 갖추었는지를 判定하는 問題
    • 튜링 테스트
    • 認識(Cognition)의 問題
    • '왜 이러한 시스템을 區別해야 하는가'라는 問題
  • 人工知能을 程度의 問題로 定義할 수 있는가?
  • 이와 같은 시스템들의 自由와 權利 問題
  • 人間이 다른 動物에 비해 '營利'한 것과 같은 方式으로 人工知能도 人間에 비해 '營利'할 수 있는가?
  • 地球上의 어떤 사람보다 더욱 知能的인 시스템을 만드는 問題
  • 이러한 시스템을 만드는 데 있어서 얼마나 많은 安全 裝置를 包含시켜야 하는지의 問題
  • 사람의 생각을 代替하기 위해서 얼마만큼의 學習 能力이 必要한지 或은 (專門家 시스템과 같이) 그와 같은 學習 能力 없이 주어진 일을 할 수 있는지
  • 單一性의 問題
  • 사람의 일자리와 業務에 미치는 影響. 이 問題는 아마도 自由 貿易 體制 下에서 發生하는 問題와 類似할 수도 있다.

言語 [ 編輯 ]

有名 人工知能 [ 編輯 ]

知能的 機械 [ 編輯 ]

다양한 種類의 知能的 프로그램이 있다. 이들 中 몇 가지 例를 들면 다음과 같다.

  • CNC - 工作 機械를 利用한 加工 코드를 컴퓨터가 小數點 3자리까지 計算하는 方式이다. 가장 原始的인 人工知能의 한 形態이다.
  • 비디오 게임 - 遠視 人工知能이다. 딥블루, 알파고 亦是 알고 보면 비디오 게임 形態의 바둑 人工知能이다.
  • 알파고 - 바둑 人工知能이다.
  • Watson - IBM에서 만든 人工知能으로, 種類가 다양하며 醫學, 金融, 放送 等에 쓰인다.
  • The Start Project - 英語로 된 質問에 答辯하는 웹 基盤 시스템이다.
  • Cyc - 實世界와 論理的 推論 能力에 關聯된 廣範圍한 常識으로 構成된 知識基盤 시스템.
  • ALICE - 使用者와 對話를 주고받을 수 있는 프로그램.
  • Alan - 使用者와 對話를 주고받을 수 있는 프로그램.
  • ELIZA - 1970年代에 開發된 心理治療師 役割을 하는 프로그램.
  • AM - 1970年代에 더글러스 레넛(Douglas B. Lenat)이 開發한 數學의 槪念들을 形式化하는 프로그램.
  • PAM (Plan Applier Mechanism) - 1978年 John Wilensky에 依해 開發된 줄거리 認識 시스템.
  • SAM (Script Applier Mechanism) - 1975年에 開發된 줄거리 認識 시스템.
  • SHRDLU - 1968年에서 1970年 사이에 開發된 草創期 自然 言語 認識 시스템.
  • Creatures - 뉴널넷 頭腦와 精巧한 生化學에 基盤한 遺傳코드로 生命體를 탄생시키고 進化시키는 컴퓨터 게임.
  • Eurisko - 휴리스틱 으로 構成된 問題 解決 言語. 휴리스틱을 어떻게 使用하며 變更해야 할지에 對한 휴리스틱을 包含하고 있다. 1978年 더글러스 레넛이 開發.
  • X-Ray Vision for Surgeons - 매사추세츠 工科大學校 醫學 비전 (MIT Medical vision) 硏究팀이 開發.
  • 심심이 - 韓國語로 對話를 주고받을 수 있는 프로그램. 使用者에 依한 學習이 可能하도록 하여 大衆的으로 成功했다. 2002年 최정회에 依해 開發. [151] [152]
  • Stable Diffusion web UI - AI 그림을 生成할 수 있는 프로그램. 使用者가 直接 모델을 學習할 수 있고, 學習한 結果에 따라 여러 그림體를 表現할 수 있다. [153]

人工知能 硏究가 [ 編輯 ]

全 世界에는 수많은 人工知能 硏究家들이 있다. 이제 人工知能 分野에 많은 寄與를 한 硏究者들을 紹介해보겠다.

몇몇 컴퓨터 科學 硏究家들은, "人工知能"이라는 用語가 只今까지 이 硏究 分野에서 이룩한 많은 業績과 "知能"이라는 一般的인 用語사이에서 큰 不一致를 招來하기 때문에 좋지 못한 用語라고 여겨진다. 이 같은 問題는 大衆科學作家들과 케빈 워릭 (Kevin Warwick)과 같이 現 狀態로는 不可能한 革新的인 人工知能 硏究 成果에 對한 期待를 불러일으키는 사람들에 依해서 深化되고 있다. 이 같은 까닭으로 人工知能과 關聯된 分野에서 일하는 많은 硏究者들이 自身들은, 認知 科學, 情報學, 統計推論 또는 情報工學과 關聯된 硏究를 하고 있다고 이야기한다. 그러나 現在 進步는 이루어지고 있고, 오늘날 人工知能은 全 世界 수많은 産業 시스템에서 作動하고 있다. 오늘날 實世界의 人工知能 시스템에 關해 더 仔細한 內容을 보려면 와이어드 誌의 記事 [154] 를 參考하라.

未來 [ 編輯 ]

超知能 [ 編輯 ]

超知能 (superintelligence)이란 人間의 能力을 아득히 뛰어넘는 假說的인 知能體를 가리키는 말이다. 어떤 專門家들은 人工 一般知能 의 發展이 앞으로 繼續해서 이어진다면 一定한 水準의 知能에 到達하고 나서는 人工知能이 스스로를 繼續해서 改善할 수 있으며, 이를 反復하여 幾何級數的인 知能 成長으로 瞬息間에 人間의 知能을 뛰어넘을지도 모른다고 主張한다. 버너 빈지 는 이 시나리오를 " 特異點 "(singularity)이라고 이름하였다. 人工知能의 限界는 如前히 明確하지 않기 때문에 이는 豫測 不可能하다고 여겨지며 때로는 虛無孟浪한 이야기로 置簿되기도 한다. 로봇 專門家 한스 모라벡 이나 發明家 레이 커즈와일 等은 더 나아가 未來에는 人間이 機械와 結合한 사이보그 로 進化하여 超知能을 손에 넣을 수 있을 것이라고 主張하는데, 이러한 主張을 트랜스휴머니즘 이라고 한다. [155]

간추리기: 超知能은 人間의 能力을 뛰어넘는 假說的인 知能體를 의미합니다. 몇몇 專門家들은 人工 一般知能의 發展으로 인해 人工知能이 스스로를 改善하고 幾何級數的인 成長을 거듭하여 人間의 知能을 뛰어넘을 수도 있다고 主張합니다. 이를 "特異點"이라고도 부르며, 未來에는 사이보그로 進化하여 超知能을 손에 넣을 수 있다는 主張도 있습니다.

危險性 [ 編輯 ]

人工知能의 否定的 影響으로 現存 일자리의 減少, 시스템 誤謬 發生과 이에 따른 補償, 人間 勞動力에 對한 輕視, 戰鬪 로봇과 같은 自律 殺傷 武器에 對한 倫理的인 問題 等이 있다. [7]

技術에 依한 失業 [ 編輯 ]

只今까지 科學 技術은 일자리를 줄이기보다는 증가시키는 傾向이 있었으나 經濟學者들은 AI에 關해서는 未知의 領域이라고 認定한다. 經濟學者들을 對象으로 한 設問에서 로봇과 AI의 使用 增加가 長期 失業者를 늘릴지에 對해 물은 結果 意見이 크게 紛紛했으며, 다만 늘어난 生産性이 再分配된다면 純利益이 될 수 있다는 데에 同意한다. [156]

또한 블루칼라 職種을 威脅하던 從來의 自動化와 달리 人工知能에 依한 自動化는 많은 中産層 화이트칼라 일자리도 威脅할 수 있다는 點이 重大하게 받아들여진다. [157] 그 影響 範圍도 매우 넓어서 法律 事務員에서 패스트푸드 다양한 職種이 큰 危機에 놓일 것이라 豫測되는데, 한便으로 個人 健康 管理나 聖職者 等 一部 職種은 오히려 需要가 增加할 수 있다고 豫想된다. [158] [159]

關聯 書籍 [ 編輯 ]

같이 보기 [ 編輯 ]

各州 [ 編輯 ]

  1. 이건한. 民間이 ‘人工知能 뉴딜’에 뛰어든 理由 Archived 2020年 6月 14日 - 웨이백 머신 . 블로터. 2020年 6月 14日.
  2. 明見萬里 |두 얼굴의 人工知能
  3. 문가용. 人工知能의 막다른 골목, ‘人工 共感 能力’ Archived 2018年 4月 29日 - 웨이백 머신 . 保安뉴스. 2018年 4月 28日.
  4. 人工知能의 主人이 되기 위해 반드시 알아야 할 것들 | 오혜연 KAIST 電算學部 敎授 | 人工知能 AI 未來 講演 | 세바視 951回
  5. 人工知能의 時代에 더 잘 살 수 있는 方法 | 李敬一 솔트룩스 代表理事, 한양대학교 特任敎授 | 4次産業革命 技術 成功 未來 | 세바視 1137回
  6. 송주영. 江(强)人工知能과 約(弱)人工知能을 아시나요? . 지디넷코리아. 2016年 6月 22日.
  7. 김주은 (2019年). “人工知能이 人間社會에 미치는 影響에 對한 硏究 (An Analysis of the effect of Artificial Intelligence on Human Society)” . 《The Journal of the Convergence on Culture Technology》 5 (2): 177-182. doi : 10.17703/JCCT.2019.5.2.177 .  
  8. A Logical Calculus of the Ideas Immanent in Nervous Activity ,Warren McCulloch, 1943
  9. On Computing Machinery and Intelligence, Alan Turing,1950
  10. Man-Computer Symbiosis ,J.C.R. Licklider
  11. Minds, Machines and Godel ,John Lucas ,1961
  12. “Minds, Machines and Godel <P>” . 2007年 8月 19日에 原本 文書 에서 保存된 文書 . 2007年 3月 3日에 確認함 .   |題目= 에 지움 文字가 있음(위치 27) ( 도움말 )
  13. McCorduck 2004, pp. 51?57, 80?107, Crevier 1993, pp. 27?32, Russell & Norvig 2003, pp. 15, 940, Moravec 1988, p. 3, Cordeschi & 2002 Chap. 5.
  14. McCorduck 2004, p. 98, Crevier 1993, pp. 27?28, Russell & Norvig 2003, pp. 15, 940, Moravec 1988, p. 3, Cordeschi & 2002 Chap. 5.
  15. McCorduck 2004, pp. 51?57, 88?94, Crevier 1993, p. 30, Russell & Norvig 2003, p. 15?16, Cordeschi & 2002 Chap. 5 and see also Pitts & McCullough 1943
  16. McCorduck 2004, p. 102, Crevier 1993, pp. 34?35 and Russell & Norvig 2003, p. 17
  17. McCorduck 2004, pp. 70?72, Crevier 1993, p. 22?25, Russell & Norvig 2003, pp. 2?3 and 948, Haugeland 1985, pp. 6?9, Cordeschi 2002, pp. 170?176. See also Turing 1950
  18. Norvig & Russell (2003, p. 948) claim that Turing answered all the major objections to AI that have been offered in the years since the paper appeared.
  19. See "A Brief History of Computing" at AlanTuring.net.
  20. Schaeffer, Jonathan. One Jump Ahead:: Challenging Human Supremacy in Checkers, 1997,2009, Springer, ISBN   978-0-387-76575-4 . Chapter 6.
  21. McCorduck 2004, pp. 137?170, Crevier, pp. 44?47
  22. Newell, A.; Simon, H. (1956年 9月). “The logic theory machine--A complex information processing system” . 《IEEE Transactions on Information Theory》 (英語) 2 (3): 61?79. doi : 10.1109/TIT.1956.1056797 . ISSN   0018-9448 .  
  23. McCorduck 2004, pp. 123?125, Crevier 1993, pp. 44?46 and Russell & Norvig 2003, p. 17
  24. McCorduck 2004, pp. 111?136, Crevier 1993, pp. 49?51 and Russell & Norvig 2003, p. 17
  25. See McCarthy et al. 1955. Also see Crevier 1993, p. 48 where Crevier states "[the proposal] later became known as the 'physical symbol systems hypothesis'". The physical symbol system hypothesis was articulated and named by Newell and Simon in their paper on GPS. (Newell & Simon 1963) It includes a more specific definition of a "machine" as an agent that manipulates symbols. See the philosophy of artificial intelligence.
  26. McCorduck (2004, pp. 129?130) discusses how the Dartmouth conference alumni dominated the first two decades of AI research, calling them the "invisible college".
  27. McCorduck (2004, pp. 129?130) discusses how the Dartmouth conference alumni dominated the first two decades of AI research, calling them the "invisible college".
  28. Crevier (1993, pp. 49) writes "the conference is generally recognized as the official birthdate of the new science."
  29. Russell and Norvig write "it was astonishing whenever a computer did anything remotely clever." Russell & Norvig 2003, p. 18
  30. Crevier 1993, pp. 52?107, Moravec 1988, p. 9 and Russell & Norvig 2003, p. 18?21
  31. McCorduck 2004, p. 218, Crevier 1993, pp. 108?109 and Russell & Norvig 2003, p. 21
  32. Crevier 1993, pp. 52?107, Moravec 1988, p. 9
  33. Means-ends analysis, reasoning as search: McCorduck 2004, pp. 247?248. Russell & Norvig 2003, pp. 59?61
  34. Heuristic: McCorduck 2004, p. 246, Russell & Norvig 2003, pp. 21?22
  35. GPS: McCorduck 2004, pp. 245?250, Crevier 1993, p. GPS?, Russell & Norvig 2003, p. GPS?
  36. Crevier 1993, pp. 51?58,65?66 and Russell & Norvig 2003, pp. 18?19
  37. McCorduck 2004, pp. 268?271, Crevier 1993, pp. 95?96, Moravec 1988, pp. 14?15
  38. McCorduck 2004, p. 286, Crevier 1993, pp. 76?79, Russell & Norvig 2003, p. 19
  39. Crevier 1993, pp. 79?83
  40. Crevier 1993, pp. 164?172
  41. McCorduck 2004, pp. 291?296, Crevier 1993, pp. 134?139
  42. McCorduck 2004, pp. 299?305, Crevier 1993, pp. 83?102, Russell & Norvig 2003, p. 19 and Copeland 2000
  43. McCorduck 2004, pp. 300?305, Crevier 1993, pp. 84?102, Russell & Norvig 2003, p. 19
  44. Simon & Newell 1958, p. 7?8 quoted in Crevier 1993, p. 108. See also Russell & Norvig 2003, p. 21
  45. Simon 1965, p. 96 quoted in Crevier 1993, p. 109
  46. Minsky 1967, p. 2 quoted in Crevier 1993, p. 109
  47. Minsky strongly believes he was misquoted. See McCorduck 2004, pp. 272?274, Crevier 1993, p. 96 and Darrach 1970.
  48. Crevier 1993, pp. 64?65
  49. Crevier 1993, p. 94
  50. Howe 1994
  51. McCorduck 2004, p. 131, Crevier 1993, p. 51. McCorduck also notes that funding was mostly under the direction of alumni of the Dartmouth conference of 1956.
  52. Crevier 1993, p. 65
  53. Crevier 1993, pp. 68?71 and Turkle 1984
  54. Crevier 1993, pp. 100?144 and Russell & Norvig 2003, pp. 21?22
  55. McCorduck 2004, pp. 104?107, Crevier 1993, pp. 102?105, Russell & Norvig 2003, p. 22
  56. Crevier 1993, pp. 163?196
  57. Crevier 1993, p. 146
  58. Russell & Norvig 2003, pp. 20?21
  59. Crevier 1993, pp. 146?148, see also Buchanan 2005, p. 56: "Early programs were necessarily limited in scope by the size and speed of memory"
  60. Hans Moravec, ROBOT: Mere Machine to Transcendent Mind
  61. Russell & Norvig 2003, pp. 9,21?22 and Lighthill 1973
  62. McCorduck 2004, pp. 300 & 421; Crevier 1993, pp. 113?114; Moravec 1988, p. 13; Lenat & Guha 1989, (Introduction); Russell & Norvig 2003, p. 21
  63. McCorduck 2004, p. 456, Moravec 1988, pp. 15?16
  64. McCarthy & Hayes 1969, Crevier 1993, pp. 117?119
  65. McCorduck 2004, pp. 280?281, Crevier 1993, p. 110, Russell & Norvig 2003, p. 21 and NRC 1999 under "Success in Speech Recognition".
  66. Russell & Norvig 2003, p. 22, Lighthill 1973, John McCarthy wrote in response that "the combinatorial explosion problem has been recognized in AI from the beginning" in Review of Lighthill report
  67. Crevier 1993, p. 117, Russell & Norvig 2003, p. 22, Howe 1994 and see also Lighthill 1973.
  68. Crevier 1993, pp. 115?116 (on whom this account is based). Other views include McCorduck 2004, pp. 306?313 and NRC 1999 under "Success in Speech Recognition".
  69. Crevier 1993, p. 115. Moravec explains, "Their initial promises to DARPA had been much too optimistic. Of course, what they delivered stopped considerably short of that. But they felt they couldn't in their next proposal promise less than in the first one, so they promised more."
  70. NRC 1999 under "Shift to Applied Research Increases Investment." While the autonomous tank was a failure, the battle management system (called "DART") proved to be enormously successful, saving billions in the first Gulf War, repaying the investment and justifying the DARPA's pragmatic policy, at least as far as DARPA was concerned.
  71. Lucas and Penrose' critique of AI: Crevier 1993, p. 22, Russell & Norvig 2003, pp. 949?950, Hofstadter 1980, pp. 471?477 and see Lucas 1961
  72. "Know-how" is Dreyfus' term. (Dreyfus makes a distinction between "knowing how" and "knowing that", a modern version of Heidegger's distinction of ready-to-hand and present-at-hand.) (Dreyfus & Dreyfus 1986)
  73. Dreyfus' critique of artificial intelligence: McCorduck 2004, pp. 211?239, Crevier 1993, pp. 120?132, Russell & Norvig 2003, pp. 950?952 and see Dreyfus 1965, Dreyfus 1972, Dreyfus & Dreyfus 1986
  74. Searle's critique of AI: McCorduck 2004, pp. 443?445, Crevier 1993, pp. 269?271, Russell & Norvig 2004, pp. 958?960 and see Searle 1980
  75. Quoted in Crevier 1993, p. 143
  76. Quoted in Crevier 1993, p. 122
  77. Weizenbaum's critique of AI: McCorduck 2004, pp. 356?373, Crevier 1993, pp. 132?144, Russell & Norvig 2003, p. 961 and see Weizenbaum 1976
  78. McCorduck 2004, pp. 104?107, Crevier 1993, pp. 102?105, Russell & Norvig 2003, p. 22
  79. McCorduck 2004, p. 51, Russell & Norvig 2003, pp. 19, 23
  80. McCorduck 2004, p. 51, Crevier 1993, pp. 190?192
  81. Crevier 1993, pp. 193?196
  82. Crevier 1993, pp. 145?149,258?63
  83. Wason (1966) showed that people do poorly on completely abstract problems, but if the problem is restated to allowed the use of intuitive social intelligence, performance dramatically improves. (See Wason selection task) Tversky, Slovic & Kahnemann (1982) have shown that people are terrible at elementary problems that involve uncertain reasoning. (See list of cognitive biases for several examples). Eleanor Rosch's work is described in Lakoff 1987
  84. An early example of McCathy's position was in the journal Science where he said "This is AI, so we don't care if it's psychologically real" (Kolata 1982), and he recently reiterated his position at the AI@50 conference where he said "Artificial intelligence is not, by definition, simulation of human intelligence" (Maker 2006).
  85. Crevier 1993, pp. 175
  86. Neat vs. scruffy: McCorduck 2004, pp. 421?424 (who picks up the state of the debate in 1984). Crevier 1993, pp. 168 (who documents Schank's original use of the term). Another aspect of the conflict was called "the procedural/declarative distinction" but did not prove to be influential in later AI research.
  87. McCorduck 2004, pp. 305?306, Crevier 1993, pp. 170?173, 246 and Russell & Norvig 2003, p. 24. Minsky's frame paper: Minsky 1974.
  88. McCorduck 2004, pp. 327?335 (Dendral), Crevier 1993, pp. 148?159, Russell & Norvig 2003, pp. 22?23
  89. Crevier 1993, pp. 158?159 and Russell & Norvig 2003, p. 23?24
  90. Crevier 1993, p. 198
  91. McCorduck 2004, pp. 434?435, Crevier 1993, pp. 161?162,197?203 and Russell & Norvig 2003, p. 24
  92. McCorduck 2004, p. 299
  93. Knowledge revolution: McCorduck 2004, pp. 266?276, 298?300, 314, 421, Russell Norvig, pp. 22?23
  94. Cyc: McCorduck 2004, p. 489, Crevier 1993, pp. 239?243, Russell & Norvig 2003, p. 363?365 and Lenat & Guha 1989
  95. Crevier 1993, pp. 195
  96. Crevier 1993, pp. 240.
  97. Russell & Norvig 2003, p. 25
  98. McCorduck 2004, pp. 426?432, NRC 1999 under "Shift to Applied Research Increases Investment"
  99. Russell & Norvig 2003, p. 25
  100. Crevier 1993, pp. 214?215.
  101. Russell & Norvig 2003, p. 25
  102. Crevier 1993, pp. 215?216.
  103. Crevier 1993, pp. 203. AI winter was first used as the title of a seminar on the subject for the Association for the Advancement of Artificial Intelligence.
  104. McCorduck 2004, p. 435, Crevier 1993, pp. 209?210
  105. McCorduck 2004, p. 435 (who cites institutional reasons for their ultimate failure), Crevier 1993, pp. 204?208 (who cites the difficulty of truth maintenance, i.e., learning and updating), Lenat & Guha 1989, Introduction (who emphasizes the brittleness and the inability to handle excessive qualification.)
  106. McCorduck 2004, pp. 430?431
  107. McCorduck 2004, p. 441, Crevier 1993, p. 212. McCorduck writes "Two and a half decades later, we can see that the Japanese didn't quite meet all of those ambitious goals."
  108. McCorduck 2004, pp. 454?462
  109. Moravec (1988, p. 20) writes: "I am confident that this bottom-up route to artificial intelligence will one date meet the traditional top-down route more than half way, ready to provide the real world competence and the commonsense knowledge that has been so frustratingly elusive in reasoning programs. Fully intelligent machines will result when the metaphorical golden spike is driven uniting the two efforts."
  110. Crevier 1993, pp. 183?190.
  111. Brooks 1990, p. 3
  112. See, for example, Lakoff & Turner 1999
  113. McCorduck (2004, p. 424) discusses the fragmentation and the abandonment of AI's original goals.
  114. [情報保護學會誌 第27卷 第3號, 2017.6 人工知能保安이슈 NDSL National Digital Science Library]
  115. McCorduck 2004, pp. 480?483
  116. DARPA Grand Challenge ? home page
  117. “保管된 寫本” . 2014年 3月 5日에 原本 文書 에서 保存된 文書 . 2015年 9月 15日에 確認함 .  
  118. Markoff, John (16 February 2011). "On ‘Jeopardy!' Watson Win Is All but Trivial". The New York Times.
  119. Kurzweil 2005, p. 274 writes that the improvement in computer chess, "according to common wisdom, is governed only by the brute force expansion of computer hardware."
  120. Cycle time of Ferranti Mark 1 was 1.2 milliseconds, which is arguably equivalent to about 833 flops. Deep Blue ran at 11.38 gigaflops (and this does not even take into account Deep Blue's special-purpose hardware for chess). Very approximately, these differ by a factor of 10^7.
  121. McCorduck 2004, pp. 471?478, Russell & Norvig 2003, p. 55, where they write: "The whole-agent view is now widely accepted in the field". The intelligent agent paradigm is discussed in major AI textbooks, such as: Russell & Norvig 2003, pp. 32?58, 968?972, Poole, Mackworth & Goebel 1998, pp. 7?21, Luger & Stubblefield 2004, pp. 235?240
  122. Carl Hewitt's Actor model anticipated the modern definition of intelligent agents. (Hewitt, Bishop & Steiger 1973) Both John Doyle (Doyle 1983) and Marvin Minsky's popular classic The Society of Mind (Minsky 1986) used the word "agent". Other "modular" proposals included Rodney Brook's subsumption architecture, object-oriented programming and others.
  123. Russell & Norvig 2003, pp. 27, 55
  124. This is how the most widely accepted textbooks of the 21st century define artificial intelligence. See Russell & Norvig 2003, p. 32 and Poole, Mackworth & Goebel 1998, p. 1
  125. Russell & Norvig 2003, pp. 27, 55
  126. Russell & Norvig 2003, p. 32 and Poole, Mackworth & Goebel 1998, p. 1
  127. McCorduck 2004, p. 478
  128. McCorduck 2004, pp. 486?487, Russell & Norvig 2003, pp. 25?26
  129. Russell & Norvig 2003, p. 25?26
  130. McCorduck (2004, p. 487): "As I write, AI enjoys a Neat hegemony."
  131. Pearl 1988
  132. Russell & Norvig 2003, p. 25?26
  133. See Computer science (in Applications of artificial intelligence)
  134. Russell & Norvig 2003, p. 28
  135. For the new state of the art in AI based speech recognition, see The Economist (2007)
  136. "AI-inspired systems were already integral to many everyday technologies such as internet search engines, bank software for processing transactions and in medical diagnosis." Nick Bostrom, quoted in CNN 2006
  137. Olsen (2004),Olsen (2006)
  138. NRC 1999 under "Artificial Intelligence in the 90s", and Kurzweil 2005, p. 264
  139. McCorduck 2004, p. 423, Kurzweil 2005, p. 265, Hofstadter 1979, p. 601
  140. CNN 2006
  141. Markoff 2005
  142. The Economist 2007
  143. Tascarella 2006
  144. Crevier 1993, pp. 108?109
  145. He goes on to say: "The answer is, I believe we could have ... I once went to an international conference on neural net[s]. There were 40 thousand registrants ... but ... if you had an international conference, for example, on using multiple representations for common sense reasoning, I've only been able to find 6 or 7 people in the whole world." Minsky 2001
  146. Maker 2006
  147. Kurzweil 2005
  148. Hawkins & Blakeslee 2004
  149. “人工知能과 4次 産業革命” . 2016年 4月 20日에 原本 文書 에서 保存된 文書 . 2016年 4月 11日에 確認함 .  
  150. “알파고와 같은 人工知能(AI)李 未來에 人間의 職業을 줄일까요?” . 트라이버튼. 2016年 5月 11日. 2016年 6月 30日에 原本 文書 에서 保存된 文書 . 2016年 5月 11日에 確認함 .  
  151. 大韓民國 IT포털의 中心! 이티뉴스 [ 깨진 링크 ( 過去 內容 찾기 )]
  152. [디지털컬처]로봇과 메신저로 對話 :: 네이버 뉴스
  153. 情報킹 (2023年 8月 8日). “AI 그림 그려주는 사이트 TOP47 (無料 人工知能 AI)” . 2023年 8月 13日에 確認함 .  
  154. http://www.wired.com/wired/archive/10.03/everywhere.html It's alive
  155. Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 978-0-670-03384-3 .
  156. IGM Chicago (30 June 2017). "Robots and Artificial Intelligence". www.igmchicago.org.
  157. Morgenstern, Michael (9 May 2015). "Automation and anxiety". The Economist.
  158. Thompson, Derek (23 January 2014). "What Jobs Will the Robots Take?". The Atlantic.
  159. Mahdawi, Arwa (26 June 2017). "What jobs will still be around in 20 years? Read this to prepare your future". The Guardian.

外部 링크 [ 編輯 ]