Google 內部針對 AI (人工智慧)技術是否具有人類意識的爭論曝光,讓 AI 伴隨的野心與風險浮上檯面。
Google 這家矽谷巨頭上週將一名工程師停職,因為他認為公司的 AI 系統 LaMDA 似乎「有知覺」, Google 已正式駁斥這種說法。
多位專家告訴法新社,他們也對 LaMDA 有意識的說法高度懷疑,但人類的本質和野心很容易模糊問題。
美國華盛頓大學( University of Washington )語言學教授班德( Emily M. Bender )說:「問題在於…當我們遇到屬於我們語言的字串時,就會加以理解。」
「我們在做的是想像一個不存在的頭腦。」
LaMDA 是一個使用先進模型、功能強大的系統,能用文字聊天來模擬人類溝通。
根據 Google 的解釋,該系統建立在一個模型上,模型觀察單字之間的關係,然後預測接下來會出現在句子或段落中的單字。
北卡羅來納大學教堂山分校( University of North Carolina at Chapel Hill )電腦科學助理教授斯里瓦斯塔瓦( Shashank Srivastava )說:「它在某種程度上仍然只是模式匹配。」
「當然,你可以找到一些真正有意義的對話,可以生成一些非常有創意的文字,但在許多情況下它會迅速轉移。」
儘管如此,確定它們有沒有意識還是棘手問題,這通常得使用圖靈測試( Turing test )這樣的基準測試。
多倫多大學( University of Toronto )哲學教授金威爾( Mark Kingwell )說:「對於 2022 年我們這裡的任何 AI 來說,這實際上是一個相當容易通過的測試。」
「更嚴格的測試是上下文測試,當前系統似乎會被上下文測試中的常識知識或背景想法等難倒,那是演算法很難處理的東西。」
AI 在科技界內外仍然是微妙議題,可能讓人驚訝,卻也讓人有些不舒服。
Google 在聲明中迅速且堅定地淡化 LaMDA 是不是有自我意識的問題,「這些系統模仿了數百萬個句子中的交流類型,並且可以重複任何奇異的話題」。
(新聞資料來源 : 中央社)
評論被關閉。