人工智慧情感怎運算?

人工智慧

人工智慧情感怎運算?
人工智慧情感怎運算?

2022-02-01 李政霖、李祈均

機器透過生理識別資料進行訓練後,得以進行情緒辨識,但在不同情境下就需考量更複雜的面向,這有賴於每一位使用者的主動回饋。

知名認知學者及電腦科學家明斯基(Marvin Minsky)曾說過:「問題不在於具有智能的機器能不能擁有任何情緒,而是機器具有智能之後怎麼可能沒有情緒。」情緒形塑個人生活、聯繫人際互動、影響群體氛圍。科技發展至今,人們已體認到不夠人性化的科技就不受青睞,因此現今科技正在開拓一系列創新之路,要把情緒感知賦予科技,讓科技更深入人心並走入生活,而情感運算(affective computing)就是其中之一。

情感運算的進展可回溯到1995年,美國麻省理工學院(MIT)媒體實驗室的教授畢凱(Rosalind Picard)提出並開啟了一項新興跨領域研究。她除了以心理學理論為基礎,也整合統計分析和人工智慧(AI)技術,讓電腦開始蒐集相機、麥克風和生理穿戴式裝置的訊號,透過運算便能判讀人們心理狀態。

科學家發現,臉部表情的皺眉頭或嘴角上揚都透露明顯的情緒訊號,聲音的抑揚頓挫和說話時的用字遣詞,也是反映出情緒正負向和激動程度的要素,生理訊號則非常真實呈現感官受刺激後的情緒反應。這些訊號經測量後,透過運算所取得的情緒資訊,也回應了心理學深厚的理論知識。奠基於這些研究,不同領域的專家投入情感運算的技術開發,促進此一跨領域學科形成。

輔助心理診斷

隨著情感運算的技術持續開發,拓展出更多研究面向,例如在醫療健康上,有機會輔助診斷自閉症、思覺失調症和憂鬱症等心理疾病。過去科學家透過觀察個人行為表現並測量腦部活動,證實腦部的運作會部份反應在行為上,例如自閉症患者的臉部情緒可對應到腦電圖(EEG),因此行為可做為臨床衡鑑指標。

一般來說,心理相關疾病的診斷與治療,需要仰賴有經驗的精神科醫師及臨床心理師,以一對一面談方式進行,並且往往需要患者或親友主動尋求協助,較難於生活中即時判斷並記錄患者行為。而診斷及追蹤的面談過程有時會採用結構化或半結構化的量表做為衡鑑工具。如果有朝一日能運用情感運算技術來進行自動化評估,或許就能提升量表評估的效率,並輔助醫師即時診斷患者,舉例來說,透過眼動追蹤、異樣表情辨識及語音特徵來計算或預測衡鑑指標,得以進一步了解自閉症嚴重程度。

類似技術也可運用於憂鬱症的診斷及分類,無論是針對說話方式、頭轉動的角度或眼睛看的方向,都可能當做衡鑑指標,開發出相關技術加以評估。值得注意的是,一般人容易忽略的行為表現,透過情感運算的協助就可能發掘出隱含病徵的細節。把原先耗時且涉及複雜人類行為的事務加以規模化(scaling),正是情感運算的潛在用途之一,例如從部落格文章的內容來偵測作者的自殺傾向,或是從日益普及的穿戴式手環來觀察使用者的壓力和焦慮程度。情感運算有可能為我們增添新工具,來對付難纏的心理健康與壓力問題。

此外,遠距使用的優勢也有機會拉近人與醫療資源的距離。2017年史丹佛大學團隊推出並測試Woebot聊天機器人,這款應用程式採用認知行為治療(CBT)的設計,請使用者寫下自己的想法,並在結構化的問答中,提供使用者反思自身情緒並改變想法的機會。南加州大學團隊則利用心理治療系統Ellie,針對美國退伍軍人的創傷後壓力疾患(PTSD)來自動偵測微笑頻率和持續時間,提供了追蹤病程的線索。

過往實驗也發現一種有趣現象,受試者在面對機器時反而比較願意傾吐心聲,正因為機器並不是真人,受試者得以拋開社交或身分顧慮,進而產生一種新的溝通途徑。在新冠肺炎疫情期間,避免群聚造成人際疏離,可能添增大眾的憂鬱傾向,在醫療現場資源吃緊之下,遠距科技輔助心理診療勢必更受關注。

從上述研究,不禁令人思考人們與機器對話時會尋求哪方面的協助?Woebot創辦人達西(Alison Darcy)也是心理學家,明確回應許多人的誤解:「Woebot不是用於取代臨床心理師!」相反地,情感運算研究拓展了心理輔導和諮商的新管道,而且具有24小時不斷線的優點,當人們懷有負面情緒時,或許能夠彌補求助無門的空缺。

除了醫療方面的積極嘗試,這些聊天機器人提供的陪伴和娛樂作用,或許有朝一日也能應用在大眾的日常生活中。事實上,人們無時無刻都在「計算」自身情緒狀態。上課時,學生會對不適合的教學步調或內容感到挫折,如果有對應的客觀情緒反應指標,老師也許就能更適切調整。開車時,駕駛可能會打瞌睡,有了車用疲勞偵測裝置的協助,就能降低車禍發生率。情感運算發展至今,正圍繞著人類生活來嘗試各種新的試驗,也衍生出一些未來想像和應用場景。

數據本質是根本問題

情感運算研究的面向廣泛,把研究結果融入日常生活,需要克服不少挑戰,例如蒐集的資料潛藏隱私問題、誤用模型所造成的決策風險,以及預測偏誤帶來的潛在不平等議題。用於訓練情感運算模型的數據庫,通常強烈影響模型的預測結果,因此蒐集並檢查資料庫內容的方法就變得相當重要。

過去研究人員測試Google提供的影像辨識服務時,發現機器較容易預測女性臉上有笑容。非情感運算的相關任務上也有類似情況,幾家大公司提供的服務具有各種問題,例如對於預測黑人性別的較不準確,因而促成性別圖譜(Gender Shade)專案,試圖挖掘更深的偏誤來源。偏誤並不是這些大公司有意塑造,假如資料庫中的女性大多面帶微笑,自然軟體很容易把女性和笑容直接連結成對應的特徵,但這並非真正應該用於進行建模的特徵。

這類以數據為基礎的技術就像一面鏡子,真實反映收錄資料的內涵,當研究人員沒有注意到資料庫含有刻板印象和偏誤時,無形中允許不平等存在於軟體,只有刻意去觀察才得以消除。

另外一類偏誤來自於模型訓練的過程,由於資料蒐集相當困難,一項情緒辨識任務在測試初期通常高度簡化,隨著研究進展才逐步擴大應用情境。例如用於訓練情緒辨識模型的音檔,起初是由受試者朗讀設計過的腳本來產生情緒,演變到蒐集自然對話,甚至是電影及播客(podcast)等多媒體真實情境資料。即使模型在基本的腳本情境中得到高準確率,並不代表在其他生活化的情境中也能有同等表現,因此解讀模型準確率不該只單看數字高低,需要更細緻關注資料來源和應用情境。

上述對於情感運算模型的誤解相當常見,提供技術的單位有責任揭露這些模型的限制和應用情境。在研發過程中,還需要注意另一種偏誤來源,例如不考慮一句話的前後文,就要模型預測這句話所代表的情緒,或是不提供周圍情境,就要模型判讀一個臉部表情所代表的內在感受,在欠缺這些資訊的情況下,很多時候連人類都沒有把握能做出判斷,又怎麼能期待機器具有超乎人類的情感判斷力呢?因此在訓練情感運算模型時應該整合更多面向的數據,並採納不同領域專家的意見。

情感同時牽涉身心層面,人們對情感的看法有一定程度的差異,任何專家都沒有把握能全然掌握情感和行為的關係。事實上,這些議題長期存在,現今的科技應用都有類似問題,當情感運算用於判讀人們內心感受,更需要有配套方法來處理相關倫理與隱私議題。關於倫理與法規的需求,學術圈已有眾多學者參與討論,在去年9月召開的情感運算與智能互動國際會議(ACII)正是以情感運算的倫理層面為主題,匯集技術社群,共同討論如何為社會帶來正面影響。

各國也持續研議相關立法,例如2020年美國加州推動「加州隱私權法」(CPRA),擴大了資料蒐集的相關規範,其中備受重視的個人生物識別資料,涵蓋了多種可用於識別情緒的記錄,使用者可以決定這些生物辨別資料該如何使用,也有權要求刪除這些資料……

【欲閱讀全文或更豐富內容,請參閱〈科學人知識庫〉2022年第240期02月號】