私隱公署發布AI資料保障框架 列4大範疇助機構降洩密風險

【on.cc東網專訊】隨着人工智能(AI)應用日漸普及,對個人資料私隱帶來挑戰。私隱專員公署今日(11日)發布《人工智能:個人資料保障模範框架》,為有意採購AI系統處理個人資料的機構提供建議,以減低私隱風險。框架涵蓋4大範疇,包括制定AI策略及管治架構、進行風險評估及人為監督、實行AI模型的定製與AI系統的實施,以及管理和促進與持份者的溝通及交流。

框架根據商業機構的流程而設,為機構在採購、實施及使用任何類型的AI系統處理個人資料私隱時,提供有關建議及最佳行事常規,減低私隱風險。框架涵蓋4大範疇,分別為制定AI策略及管治架構,為員工提供相關培訓;建立風險管理機制,採取「風險為本」的管理方式;實施及管理AI模型的定製,並為模型準備及管理數據;以及促進持份者,尤其內部員工、AI供應商等的溝通及交流。

個人資料私隱專員鍾麗玲引述生產力局的數據稱,今年預料將有近半香港機構使用AI,較去年上升約2成。她提到,較多機構使用生成式AI、聊天機器人或文字辨識工具,惟生成式AI相比其他新興技術,例如雲端計算、物聯網等,存在較多私隱風險,包括收集過量資料、使用者難以理解資料如何使用、準確性成疑等。

鍾麗玲相信,框架可協助機構遵從《個人資料(私隱)條例》的規定,以孕育AI在香港的健康發展,並促進香港成為創新科技樞紐,以及推動香港以至大灣區的數字經濟發展。她希望,框架可以提供切實可行、模範的措施,方便機構使用,又指框架內的流程並非「做完一次就算」,需要機構持續實行並管理。

【更多即時新聞詳情請上東網新聞