本文共699字
資誠智能風險管理諮詢公司董事長張晉瑞表示,AI治理不僅是技術問題,更是整個企業的責任,風險出現時必須及時掌握,不能等到跌倒才知道痛,AI治理的最終目標是建立「可信任的AI」,管理風險應在開發、營運等過程全程監控。
PwC Taiwan攜手經濟日報於13日舉辦「AI大策略大布局論壇」,張晉瑞以「落實AI治理 智領風險創新猷」為題發表專題演講。
張晉瑞指出,企業在面對AI技術時,主要分為三種情境,一、直接採用,但未充分考量風險;二、對AI了解不足而選擇不使用,最終被競爭者超越;三、想使用但因不知如何管理而裹足不前。
張晉瑞強調,風險管理是生成式AI應用中的核心議題,有四個關鍵風險。首先是準確性與完整性,生成式AI輸出是否正確,影響業務決策可靠性;其次是信賴性與可解釋性,無法清楚解釋AI輸出會削弱使用信心;第三是數據偏差與更新,訓練數據偏頗或未持續驗算,可能導致結果失準;第四是責任歸屬,AI應用中一旦出現錯誤,責任應由誰承擔。
張晉瑞以PwC內部的生成式AI應用「ChatPwC」為例,該系統已嵌入多層風險控制,確保輸出的準確性與可信度。
張晉瑞強調,AI治理須跨部門合作,包括數位長、法遵長、隱私長、法務長與資安長,各自在不同領域分擔責任,才能全面掌控風險,在AI治理建構歷程,首先要注重領導層培訓與探索,提升高層對AI理解與認知,再來制定策略與可信任AI,建立治理框架,聚焦數據準確性、倫理與透明度,最後才是技術部署與組織變革。
張晉瑞說,生成式AI並非全面適用所有情境,企業應將資源集中於效益最高的應用場景,AI治理的最終目標是建立「可信任的AI」,企業需要從策略層面確保治理方向與董事會的一致性。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言