OpenAI 風波|Sam Altman 上周被炒 消息指源於董事會獲研究員信件 稱最新 AI 發展或威脅人類

Sam Altman 在美國時間 11 月 16 日出席 APEC 峰會,暗示通用人工智能(AGI)即將到來。在出席峰會翌日,Altman 就被 OpenAI 董事會解僱。 (Photo by Justin Sullivan/Getty Images)
Sam Altman 在美國時間 11 月 16 日出席 APEC 峰會,暗示通用人工智能(AGI)即將到來。在出席峰會翌日,Altman 就被 OpenAI 董事會解僱。 (Photo by Justin Sullivan/Getty Images)

【Yahoo 新聞報道】人工智能開發機構 OpenAI 的人事風波暫告一段落,原本被炒的行政總裁 Sam Altman 已經復職,至於原先提出解僱 Altman 的董事會亦都「洗牌」。路透社今早(23 日)引述兩名消息人士指,在今次人事風波發生前,機構內數名研究員在董事會發信,指機構在研究通用人工智能(Artificial General Intelligence,AGI)方面取得突破,現時該系統內 AI 的數學程度已達小學生水平;研究員對於系統發展速度樂觀,但這同時反映了 AI 可能對人類構成威脅:根據 OpenAI 的定義,AGI 最終會超越人類智慧。

消息人士向路透社說,研究員在信中指出了 AI 的能力以及其潛在危險,不過就無具體說明到具體的安全問題為何。消息人士並指,信件成為了董事會解僱 Altman 的導火線。消息人士未向路透社提供信件的副本;至於撰寫信件的研究員未有回應路透社查詢。

另外,其中一名消息人士向路透社指,多年來在 OpenAI 擔任技術總監(CTO)的 Mira Murati 已經跟員工披露上述 AI 項目名為「Q*」。而在路透社的報道發表後,OpenAI 發言人指 Murati 已經跟員工講述媒體將要報道的內容,但她沒有評論報道的準確性。

Altman 作為 OpenAI 的領導人,一直知悉機構內的 AI 項目發展進度。在剛過去於美國三藩市舉行的 APEC 峰會,Altman 就曾經在會議上暗示 AGI 即將到來。Altman 當時概括指,OpenAI 創立至今有 4 項發展突破,最近一次在過去數周發生。Altman 發表相關言論後翌日,OpenAI 董事會就解僱了 Altman,為今次人事風波掀起序幕。

OpenAI 人事風波時序(點擊可放大)
OpenAI 人事風波時序(點擊可放大)

OpenAI 首席科學家關注 AI 安全

上周 OpenAI 董事會解僱 Sam Altman 一事得以啟動,公司首席科學家 Ilya Sutskever 被視為關鍵人物。在事件發生前,OpenAI 董事會由 6 人組成,可分為「員工」跟「非員工」兩派。3 名員工分別是行政總裁 Sam Altman、主席 Greg Brockman,以及 Sutskever;至於 3 名非員工就分別是 Quora 行政總裁 Adam D’Angelo、喬治城大學安全與新興技術中心(CSET)戰略及基礎研究基金主任 Helen Toner、以及 Fellow Robots 共同創辦人 Tasha McCauley。有分析指,OpenAI 決策當中,原本雙方可以達成均勢,但 Sutskever 在今次事件上倒戈,令 Altman 被炒。

根據 OpenAI 原先的公布,Altman 被炒的原因是他在與董事會的溝通中並不坦誠、阻礙其履行職務的能力,董事會不相信他能繼續領導 OpenAI。有分析指真正原因是,Altman 和 Sutskever 對公司發展進程的看法存在分歧,最終促使了 Sutskever 說服 3 名非員工董事解僱 Altman。

OpenAI 首席科學家 Ilya Sutskever 承認有參與解僱 Sam Altman 一事,但在幾日之後,他對於自己有份參與此事感到後悔,並一同參與 OpenAI 員工聯署,要求董事會讓 Sam Altman 復職。(圖:Lex Fridman YouTube)
OpenAI 首席科學家 Ilya Sutskever 承認有參與解僱 Sam Altman 一事,但在幾日之後,他對於自己有份參與此事感到後悔,並一同參與 OpenAI 員工聯署,要求董事會讓 Sam Altman 復職。(圖:Lex Fridman YouTube)
OpenAI 主席 Greg Brockman 在上周 Sam Altman 被炒後宣布辭職。(Photo by Errich Petersen/Getty Images for SXSW)
OpenAI 主席 Greg Brockman 在上周 Sam Altman 被炒後宣布辭職。(Photo by Errich Petersen/Getty Images for SXSW)

有外媒分析指,Altman 一直確保 OpenAI 在人工智能產業尖端,因此他跟 Brockman 持續為 OpenAI 的融資付出努力,並且鑽研 AI 技術進步。除了在財政上獲得微軟大力支持外,據報 Altman 正尋求從中東主權財富基金和軟銀(SoftBank)創辦人孫正義籌集資金,希望建立 AI 晶片公司,從而在開發上擺脫來自 NVIDIA 和台積電的成本制肘。

不過,Sutskever 就擔心公司發展太快,並且會因為過份商業化而犧牲安全性。而在 7 月,Sutskever 就跟 Jan Leike 在 OpenAI 建立「超級對齊」(Superalignment)團隊,團隊獲得全公司 20% 算力,目標是在 4 年內開發 AI 的「保護人類」機制,確保 AI 不會因為高速發展,最終作出損害人類的行為。有意見推測,OpenAI 近期的技術突破驚動了 Sutskever,他在無法確保 AI 安全發展的情況下決定倒戈。

如何理解 AGI?

路透社今次報道提及了通用人工智能(AGI),被視為人工智能發展進程的中期階段。人工智能的 3 個階段,分別為狹義人工智能(Artificial Narrow Intelligence,ANI)、通用人工智能,以及超級人工智能(Artificial Super Intelligence,ASI)。ANI 被稱之為狹義,是因為只能夠處理開發人員劃定範圍內的問題,除此之外不具備其他功能,例如在 2016、17 年橫掃圍棋界的 AlphaGo,就是 ANI 的經典代表:它能夠在圍棋方面贏盡全人類,但在圍棋以外的領域則並無發揮。

現時廣受大眾使用的 ChatGPT,都是屬於 ANI。用戶輸入資料要求拆解問題,背後是系統透過電腦算力和過往統計再提供「合理」答覆,因此用戶問同一條問題,最終可以在不同時間、不同場合,得到不同的答案。

2016 年 3 月,由 DeepMind 開發的狹義人工智能系統「AlphaGo」與韓國職業九段棋士李世乭對戰圍棋,最後由 AlphaGo 勝出。 (Photo by Google via Getty Images)
2016 年 3 月,由 DeepMind 開發的狹義人工智能系統「AlphaGo」與韓國職業九段棋士李世乭對戰圍棋,最後由 AlphaGo 勝出。 (Photo by Google via Getty Images)
OpenAI 的產品 ChatGPT 都是屬於 ANI 的一種。用戶輸入資料要求拆解問題,背後是系統透過電腦算力和過往統計再提供「合理」答覆,因此用戶問同一條問題,最終可以在不同時間、不同場合,得到不同的答案。(Photo by Jakub Porzycki/NurPhoto via Getty Images)
OpenAI 的產品 ChatGPT 都是屬於 ANI 的一種。用戶輸入資料要求拆解問題,背後是系統透過電腦算力和過往統計再提供「合理」答覆,因此用戶問同一條問題,最終可以在不同時間、不同場合,得到不同的答案。(Photo by Jakub Porzycki/NurPhoto via Getty Images)

至於如何讓 AI 提供唯一正確答案,這點就跟數學推理相關,亦是現時 AI 科學家發展 AGI 的指標之一:AGI 預期具備概括、學習和理解的能力,這些能力亦令人工智能最終可跟人類相提並論。AI 科學家相信,當 AGI 實現,人工智能可以推動人類發展嶄新的科學研究。但另一方面,由於 AGI 具備上述的能力,有意見憂慮 AGI 最終會「自作主張」,作出不利人類的行為。

至於 AI 的最後階段 ASI,牛津大學學者 Nick Bostrom 就曾經指,ASI「在幾乎所有感興趣的領域中,將大大超過人類的認知表現」。不過,現時人類對於 ASI 的討論都是處於理論層面,背後其中一個原因是現時 AI 發展仍然處於 ANI 的最後階段,難以預測 ASI 將會透過甚麼方式,以及基於甚麼原因而出現。亦因為難以預測的性質,部份了解和關心 AI 的人士就希望在 ASI,以至 AGI 未出現前,人類就能對 AI 發展達成共識,從而避免 AI 做出人類不可阻擋的行動。