演算法儲存用戶資料 私隱專員稱人工智能有外洩風險

【on.cc東網專訊】近期人工智能(AI)和聊天機械人的崛起,例如「ChatGPT」等,已在不少地方和各行各業引起關注。個人資料私隱專員鍾麗玲今早(29日)在電台節目表示,雖然聊天機械人幾乎可「秒回」不少提問,並以理性和有說服力的方式回答,但人工智能有高度的學習能力,並以演算法將用戶所提供的資料儲入資料庫中,從而引致資料外洩的風險。她則建議,企業在開發人工智能時,應遵守《開發及使用人工智能道德標準指引》和相關法例。

鍾指出,與早期主要透過分析大數據作出決策的人工智能不同,聊天機械人的「神奇」之處在於它們可以秒速回應用戶的請求和問題,並根據所給予的提示,像人類般提供看來理性、完整及令人信服的回應,甚至可用來創作詩詞歌賦,這使它成為人工智能發展史上的一個里程碑。 她舉例,早前有報導指AI解答文憑試中史科試卷,可以1分鐘內完成試卷並得到5級的佳績。

不過,她解釋,生成式AI的運作建基於「深度」學習技術,當中涉及使用大量的原始資料或數據作為訓練數據,而這些資料或數據可以包括敏感的個人資料,可以是由用戶所提供的,或是由互聯網收集及複製的。 她憂慮,若你的朋友在你完全不知情、遑論同意的情況下,將你的姓名、職位、住址、身份證號碼,甚至信用卡號碼提供予聊天機械人作為對話的一部分,視乎有關程式的演算法,這些個人資料便可能會被儲存到機械人的資料庫中,並可能成為它回答下一個用戶的材料。 她補充,最近有些員工因為使用聊天機械人而將公司機密資料,例如公司系統原始碼、甚至一些醫療紀錄放入聊天機械人的系統裏,引來企業機密資料和私隱外洩的憂慮。

她又稱,近期全球超過27,000人,當中包括科技專家,聯署了一封公開信,呼籲所有人工智能實驗室六個月内暫停訓練更強大的生成式AI系統,並在這期間共同制定和實施一套安全守則。 而鍾則認為,科技公司,尤其是人工智能開發科企,應有責任確保人工智能系統的數據安全,相關科企應檢視及評估他們的人工智能系統在運作上對數據私隱及道德的影響,並確保遵從相關法例或適用的指引。在此方面,私隱專員公署於2021年8月發出《開發及使用人工智能道德標準指引》,協助機構以保障私隱、符合道德及負責任的方式開發及使用人工智能系統。鍾建議,機構在開發及使用生成式AI時,除了須要符合《個人資料(私隱)條例》的規定外,亦應該遵守這些原則,以減輕私隱及道德風險。

【更多即時新聞詳情請上東網新聞