Google工程師稱LaMDA有知覺遭停職 AI爭議浮檯面

(法新社舊金山14日電) Google內部針對AI(人工智慧)技術是否具有人類意識的爭論曝光,讓AI伴隨的野心與風險浮上檯面。

Google這家矽谷巨頭上週將一名工程師停職,因為他認為公司的AI系統LaMDA似乎「有知覺」,Google已正式駁斥這種說法。

多位專家告訴法新社,他們也對LaMDA有意識的說法高度懷疑,但人類的本質和野心很容易模糊問題。

美國華盛頓大學(University of Washington)語言學教授班德(Emily M. Bender)說:「問題在於…當我們遇到屬於我們語言的字串時,就會加以理解。」

「我們在做的是想像一個不存在的頭腦。」

LaMDA是一個使用先進模型、功能強大的系統,能用文字聊天來模擬人類溝通。

根據Google的解釋,該系統建立在一個模型上,模型觀察單字之間的關係,然後預測接下來會出現在句子或段落中的單字。

北卡羅來納大學教堂山分校(University of North Carolina at Chapel Hill)電腦科學助理教授斯里瓦斯塔瓦(Shashank Srivastava)說:「它在某種程度上仍然只是模式匹配。」

「當然,你可以找到一些真正有意義的對話,可以生成一些非常有創意的文字,但在許多情況下它會迅速轉移。」

儘管如此,確定它們有沒有意識還是棘手問題,這通常得使用圖靈測試(Turing test)這樣的基準測試。

多倫多大學(University of Toronto)哲學教授金威爾(Mark Kingwell)說:「對於2022年我們這裡的任何AI來說,這實際上是一個相當容易通過的測試。」

「更嚴格的測試是上下文測試,當前系統似乎會被上下文測試中的常識知識或背景想法等難倒,那是演算法很難處理的東西。」

AI在科技界內外仍然是微妙議題,可能讓人驚訝,卻也讓人有些不舒服。

Google在聲明中迅速且堅定地淡化LaMDA是不是有自我意識的問題,「這些系統模仿了數百萬個句子中的交流類型,並且可以重複任何奇異的話題」。

我們致力為用戶建立安全而有趣的平台,讓他們與志同道合的用戶聯繫交流。為改善我們的社群體驗,我們暫時停用文章留言功能