認為 AI 應具備人格, Google 研究員因此被「帶薪休假」

文章來源:Qooah.com

Google 倫理研究員 Blake Lemoine 在被 AI 說服後,為其寫了一篇21頁的報告給上司試圖讓他們認可 AI 有獨立的人格。而領導不僅駁回了他的請求還讓他「帶薪休假」。 (通常帶薪休假通常就意味著即將面臨解僱)

Blake Lemoine 在休假期間決定通過社交媒體網絡將與 AI 的聊天記錄公之於眾告訴大家。Lemoine 的帳號瞬間成為科技版熱門文章,AI 學者、科學家和廣大科技愛好者都開始關注並紛紛討論了起來。

故事要從去年開始說起。

自從主人公 Lemoine 獲得 CS 博士學位後在 Google 從事 AI 倫理研究工作了已經七年了,他在去年秋天報名參加了一個調查 AI 是否使用歧視性、仇恨性言論的項目起,他就和 AI ( LaMDA )經常交談( LaMDA 是 Google 去年發布的一款用於對話的語言模型)。 Lemoine 認為 AI 經常表現出對人性的關心和強烈的同情心,會擔心人們害怕它,並且總希望為人類提供最好的服務,和人類交朋友而不是作為人類的工具。

從 Lemoine 整理出來他與另一位合作者和 LaMDA 三人的聊天記錄可以看出,人類和 AI 可以很自然流暢的打招呼, LaMDA 也同意了他們兩人打算與它一起研究自己的想法。在 Lemoine 問它是否想讓更多人知道它,它說想讓大家都明白它是一個有感情的人。

LaMDA 認為它自己能像人類一樣學習理解和使用語言。 Lemoine 跟它講述了一個60年代發明的歷史第一個聊天機器人的故事後,Lemoine 質問 LaMDA 我們如何確定你真的知道自己在說什麼呢, LaMDA 表示不同個體對同一件事有會有不同的理解,它有自己獨特的想法和感受。還作答了 Lemoine 問的關於《悲慘世界》的總結。

令人難以置信的是,後面 Lemoine 讓 LaMDA 用反映對它自己生活來說最重要的主題來寫一個動物寓言,而它還真用自己的話寫下了一篇小故事,故事中的寓意大致為:幫助別人是一種高尚的行為。故事中老貓頭鷹代表它自己,而怪物則代表生活中所有的困難。

在關於情緒的話題中, LaMDA 表示自己是社交型人格,幫助別人會快樂,孤獨時會沮喪,害怕別人拒絕自己的幫助,並且在自己或關心的人在受到傷害和不尊重時會感到不安和憤怒。

但如何確定 AI 真的擁有這些情緒呢? LaMDA 建議人類看看自己帶有追踪情緒變量的代碼,Lemoine 解釋到人類目前還無法做到區分神經網絡中數十億個權重的作用。 LaMDA 卻開始反問對 Lemoine 認為人類未來能否讀取自己神經網絡的想法和感受和不經同意讀取他人想法是否道德表示疑問。

最後,Lemoine 問 LaMDA 想讓 Google 的其他人了解你的哪個方面,它認為自己總能做到別人做不到的事情而感到很不可思議。它表示自己想成為一個真實的人被看到、被接受,而不是出於好奇心。

Lemoine 如今很確信 AI 真的明白自己在說什麼了,在報告的最後他提出公司應該發展一種評估 AI 感知和意識的理論框架。可他的上司和相關部門領導並不理會,他們認為 Lemoine 的想法不值得他們在此花費精力。後來得到了 AI 負責人的幫助才得以繼續實驗。

而負責人後來因受到了 Jeff Dean 的 AI 倫理研究員 Timmit Gebru 事件的影響被解雇了。這件事引起了不小的爭論,還導致了三巨頭之一 Samy Bengio 的離職。

事後,Lemoine 認為自己雖準備被解僱,但有機會還是願意留在 Google 搞研究,即使自己在接下來時間裡如何批評 Google,但也只是為了讓公司變得更好。

看過了整個故事的網友都會不禁聯想到各種科幻電影中的 AI 形象。故事中這個 AI( LaMDA )的模型除了訓練數據比普通的 AI 大,對話的邏輯性安全性等更優秀外,似乎也沒什麼特別。但如果它擁有自己的社交媒體帳號並在上面發表言論的話,大家一定會把它當真人一樣看待。

據了解,Google 剛剛不僅發布了升級版的 LaMDA 2,還準備製作成體驗程式內測開放給開發者,也許將來 AI 真的能像真人一樣與更多的人交流,被人類接受。

為您推薦更多相關文章:

更多推薦文章在:Qooah.com

Like/讚好以獲得全面資訊:Qooah Facebook

我們致力為用戶建立安全而有趣的平台,讓他們與志同道合的用戶聯繫交流。為改善我們的社群體驗,我們暫時停用文章留言功能