打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出
bell icon

AI 大策略大布局論壇/資誠智能風險管理諮詢公司董座張晉瑞 跨部合作 精準治理

資誠智能風險管理諮詢公司董座張晉瑞。記者蘇健忠/攝影
資誠智能風險管理諮詢公司董座張晉瑞。記者蘇健忠/攝影

本文共699字

經濟日報 記者胡順惠/台北報導

資誠智能風險管理諮詢公司董事長張晉瑞表示,AI治理不僅是技術問題,更是整個企業的責任,風險出現時必須及時掌握,不能等到跌倒才知道痛,AI治理的最終目標是建立「可信任的AI」,管理風險應在開發、營運等過程全程監控。

PwC Taiwan攜手經濟日報於13日舉辦「AI大策略大布局論壇」,張晉瑞以「落實AI治理 智領風險創新猷」為題發表專題演講。

張晉瑞指出,企業在面對AI技術時,主要分為三種情境,一、直接採用,但未充分考量風險;二、對AI了解不足而選擇不使用,最終被競爭者超越;三、想使用但因不知如何管理而裹足不前。

張晉瑞強調,風險管理是生成式AI應用中的核心議題,有四個關鍵風險。首先是準確性與完整性,生成式AI輸出是否正確,影響業務決策可靠性;其次是信賴性與可解釋性,無法清楚解釋AI輸出會削弱使用信心;第三是數據偏差與更新,訓練數據偏頗或未持續驗算,可能導致結果失準;第四是責任歸屬,AI應用中一旦出現錯誤,責任應由誰承擔。

張晉瑞以PwC內部的生成式AI應用「ChatPwC」為例,該系統已嵌入多層風險控制,確保輸出的準確性與可信度。

張晉瑞強調,AI治理須跨部門合作,包括數位長、法遵長、隱私長、法務長與資安長,各自在不同領域分擔責任,才能全面掌控風險,在AI治理建構歷程,首先要注重領導層培訓與探索,提升高層對AI理解與認知,再來制定策略與可信任AI,建立治理框架,聚焦數據準確性、倫理與透明度,最後才是技術部署與組織變革。

張晉瑞說,生成式AI並非全面適用所有情境,企業應將資源集中於效益最高的應用場景,AI治理的最終目標是建立「可信任的AI」,企業需要從策略層面確保治理方向與董事會的一致性。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

延伸閱讀

上一篇
AI 大策略大布局論壇/資誠創新諮詢公司董事陳世祥 五個步驟 抓住轉機
下一篇
AI 大策略大布局論壇/資誠企管顧問公司執行董事桂竹安 重塑價值 三大關鍵

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!