有一個將人工智慧思考過程和語言理解能力與哲學概念結合在一起的比喻,這個哲學概念被稱為「中文房間」,最早由美國哲學家約翰·薩爾(John Searle)於 1980 年提出,用以質疑人工智慧是否真的能夠理解語言或達到真正的意識。
背景是這樣的:一個英語母語的人被關在一個房間裡,房間裡有一本中文符號和對應英語翻譯的指南。這個人不懂中文,但是通過這本指南,他可以將接收到的中文訊息翻譯成英文,並用中文回答問題。在房間外的人可能會認為房間裡的人懂得中文,因為他們看到的是對問題的合適回答。然而,實際上房間裡的人並不理解中文,他只是根據指南完成了符號轉換。
薩爾利用這個思想實驗試圖說明,即使機器可以模仿語言交流,它們可能並不真正理解所交流的內容。
他認為,人工智慧可能只是在模擬語言理解,而非真正地具有意識。
自從薩爾提出這個概念以來,一些人認為,如果機器能夠在外部表現上模仿語言理解,那麼它們可能已經達到了足夠的智慧水平。而另一些人則認為,真正的意識和理解需要更多的內在機制,而不僅僅是外在的行為表現。
根據薩爾的說法,強(即類人)AI 的支持者提出的三個主張是:
- 主張1:程式化的計算機理解這些故事。即人工智慧程式理解文本的想法,取決於我們對“理解”的定義。
- 主張 2:程式在某種意義上解釋了人類的理解。
不管是數位治理或所謂的商用智慧,大部分都是讓機器去收集資料,分析和判斷結果主要還是人。
公司或學校通常在報告的呈現上花費大量精力,並配以精美的圖表。雖然要求在這些報告中提供具體信息,所謂格式化文件,但普通計算機系統無法自動處理這些不同單位不同目的所收集的複雜資料。
我昨天聽校長講一個故事,他說成大最好的博士生大部分都來自於成大畢業的學士或碩士生。所以應該把比較多的獎學金鼓勵這些人留在成大念博士,可是整個校務行政系統裡面竟然找不到這樣的資料。我想是因為從來沒有因為這樣的目的,來收集資料,交給機器去做,機器能夠理解這種概念嗎?
- 主張 3:強 AI 是關於軟體而不是硬體的。薩爾區分了機器和程式,並表示強人工智慧僅與程式有關,而運行它的機器(計算機或大腦)的性質無關緊要:只有程式才是最重要的。
這是一個稻草人謬誤,因為塞爾混淆了一個簡化的假設,心智可以作為一個獨立於物理大腦的系統來研究;此外與事實不符,即我們知道的所有心智都與大腦有關。
即使在計算機科學中,軟體也只是最近才可以打包,以便獨立於硬體平台。在 1980 年代,人工智慧軟體與研究人員使用的特定程式語言和操作系統緊密耦合,近代多虧了 Java 和 Docker 等虛擬機器,軟體才能以獨立於硬件的方式進行打包。這是數十年軟體工程努力的結果。
然而,大腦並不是像 Java 虛擬機器這樣的環境那樣是從頭開始設計的。人腦是一次又一次被攻擊的結果,添加任何發生的小隨機突變以增加繁殖成功率。
薩爾的論點可以概括為:
- 強人工智能認為通過圖靈測試的符號處理系統理解人類語言。
- 中文房間論證表示符號處理系統可以通過圖靈測試,但仍然不能理解人類語言。
- 因此,沒有任何通過圖靈測試的符號處理系統可以理解人類語言。
但這是一個無效論點,所證明的是符號處理系統有可能通過圖靈測試但不理解語言。這並不能證明每個通過圖靈測試的符號處理系統都不理解自然語言。
人工智慧係指在某種意義上理解自然語言。圖靈測試的原始論文,開宗明義這樣說:
機器能思考嗎?這應該從術語“機器”和“思考”的定義開始。
戰鬥機會飛翔嗎?潛水艇會游泳嗎?人類對飛翔或游泳的定義到底是什麼?
原文出自李忠憲臉書,芋傳媒經授權轉載。
評論被關閉。