A- A+

《科技》AI採用飆速超車治理!資策會:企業須補齊三層工程防失控

時報新聞   2026/05/02 16:35

【時報記者王逸芯台北報導】全球企業AI採用速度已大幅超越AI治理成熟度。近年多起AI治理失靈案例,包括保險公司理賠自動核駁、客服機器人出現「幻覺」,以及AI Agent誤刪資料等,均反映AI一旦失控,最終責任仍將回歸部署者。資策會MIC資深產業分析師郭唐帷指出,各國法規已逐步進入實質課責階段,可信任AI治理已不再是「是否要做」,而是「如何做對」的問題。然而,AI治理涉及模型、資料與環境三大層面,並非單一機制可涵蓋,也無法一蹴可幾,需隨著對話延長、任務複雜化與資料動態導入,透過三層工程疊加,才能有效降低AI失控風險。

資策會MIC表示,隨著AI應用落地與法規推進,三層工程已由技術選項轉為企業標配。在模型治理方面,須以「決策智慧」為核心,校準價值取向;若模型缺乏自我偵測機制,可能在決策過程中產生系統性偏差而不自知,且單一模型合規並不等同整體AI系統決策合規,因此治理層級須由模型提升至決策。資料治理方面,則需以「情境工程」界定AI的事實認知邊界;當情境資訊過時或不完整,模型可能對不確定事實輸出高信度回應,因此治理重點須由資料延伸至情境。至於環境治理,須透過「駕馭工程」約束AI Agent的行為權限,在高資訊密度與長程任務環境下,確保每一次行動皆可被追蹤、攔截與終止,使治理焦點由指令層提升至架構層。

2026年初臺灣AI基本法已啟動,並設有兩年過渡期供企業建立治理能力。郭唐帷建議,資源有限的企業應先辨識自身AI應用類型與關鍵瓶頸,再投入相應治理資源。同時,由於單一AI系統往往同時面臨多重風險,企業須依風險特性採取差異化治理策略。例如,對於變化緩慢且可回溯的風險,可採稽核型治理定期檢視;對於變化快速但仍可介入的風險,則採監測型治理即時控管;至於不可逆或影響重大的風險,則須透過約束型治理,在設計階段即預先設定行為邊界。

資策會MIC進一步指出,「由AI即時監督AI」正逐漸成為新一代治理機制。過去可信任AI治理多著重於法遵與第三方認證,由企業產出人類可讀的合規文件回應監管要求;但隨著AI Agent可在毫秒內完成決策與行動,人類審查已難以跟上其運作速度。未來治理趨勢將轉向將治理邏輯內嵌於AI系統,使每一次運算過程皆能自我校準,並符合可信任原則,人類在治理體系中的角色亦將由執行者轉為授權者與稽核者。

注目焦點

推薦排行

點閱排行

你的新聞