撰文 林庭安
AI 已成為員工的隱形助理!但它帶來的治理風險,企業準備好了嗎?
分享
AI進入企業日常,它不再只是「加速產出」的工具,而是會改寫流程、牽動品牌信任與責任的管理問題;當AI成為組織的基礎建設,一套可控、可問責、可驗證的框架與系統,就成為企業守住安全風險的必需品。
AI治理(AI governance)
AI治理(AI governance)是指政府或組織 為了管理AI風險、引導技術發展並確保其負責任的部署,因而建立的一系列監管框架、問責制度與風險控管流程。
它的核心在於,讓技術在可控範圍內服務人類,將抽象的倫理原則化為具體可執行的規範,建立大眾對AI的信心。
台灣在2025年底通過首部AI專法《人工智慧基本法》,就讓企業有所依循,知道哪些應用可以放手做,哪些需要謹慎評估。台灣人工智慧學校校務長蔡明順向大家呼籲,未來每家公司董事會都必須要有人懂技術又懂AI法規,培養「AI治理人才」,等到法規出來後才不會手忙腳亂。
主權AI
在2024年底,輝達(NVIDIA)執行長黃仁勳說,世界正在經歷第二波AI浪潮,第一波浪潮是AI新創與科技巨頭,讓AI工具加入各種場景,第二波推動者是各國政府。當數位技術對政治、經濟、文化、軍事等領域的影響力可能左右一國命脈,為了保障國家利益,各國政府應該要能自己發展、掌握AI技術,建立自己的人工智慧,也就是所謂的「主權AI」(sovereign AI)。
根據顧能公司(Gartner)預測,到了2028年,全球約有65%的政府會訂出關於「科技主權」的相關規範,讓國家在使用AI時能保持獨立,不受其他國家法規或企業的影響。
影子AI
「你在工作中會使用AI工具嗎?」當企業在鼓吹同事們與AI協作,增進工作效率,背後可能隱藏企業管理的潛在風險。
2024年微軟(Microsoft)與領英(LinkedIn)共同發布的〈工作趨勢指數報告〉顯示,有75%的知識型工作者會在工作中使用AI,而其中有78%的人會自備AI工具。 員工使用未經公司批准的AI工具,這個現象被稱為「影子AI」(shadow AI)。
甚至,根據生產力軟體公司Nitro Software在2025年11月發布的〈企業AI:炒作背後的真相〉(暫譯,英文為Enterprise AI:The Reality Behind the Hype)調查顯示,儘管企業內部已經有AI使用規範,高階主管違規的比例卻高於一般員工。
影子AI的風險,不只是違規使用軟體,也可能造成資源重複配置,讓組織的AI導入無法統合,更重要的是,它可能會有數據外洩風險,如果所在企業有敏感客戶資訊,或涉及商業機密,更有可能在不知覺中流向不受控的第三方平台。
其實,2023年三星(Samsung)就禁止企業內部使用生成式AI,因為他們發現,員工會跟ChatGPT分享程式碼和會議紀錄。這股現象,不僅存在科技業,也快速蔓延至金融、製造、醫療產業,這些產業必須遵循嚴格法規,當員工使用未經授權的工具,讓企業處在風險與效率之間的兩難。
隱形的影響,可能是智慧財產權流失、資料外洩及安全風險增加等。根據顧能公司(Gartner)預測,到了2030年,全球會有超過40%的組織會因為使用未經授權的AI工具而遭受安全疑慮。
影子AI不是員工違規或抗命的表現,當員工主動導入AI工具解決工作困難,其實反映了組織制度未能及時因應的斷層。
細究原因,是因為企業內部核准使用的內建官方工具缺少關鍵功能,或是操作過於複雜,無法融入既有工作流程裡,迫使員工尋求外部解決方案。
要解決這個問題,禁止或封鎖不是主要解法,企業可以導入獲授權、符合需求的AI工具,減少員工尋找替代品的需求,也可以建立AI使用政策,明訂哪些任務與資料類型可交由AI處理。
組織也必須建立一個有效的監控框架,追蹤員工如何使用、在哪裡使用,以及為何使用AI,透過行為分析工具,或是定期審視員工裝置與網路,有助於組織在尊重用戶隱私的同時,追蹤、辨識潛在的影子AI使用情形。
AI透明度
當人們在享受人工智慧在各領域廣泛應用帶來的效率成果,AI的運作機制很多時候仍像個「黑盒子」,你不知道它的結論怎麼來、用了哪些資訊和資料、這些資訊和資料是否有足夠的可信度和倫理道德疑慮?
因此,AI透明度(AI transparency)的討論便浮上檯面,如何透過資訊揭露,建立信任和問責機制,讓使用者能夠理解和評估AI系統的行為。
AI透明度的核心在於「可解釋性」,它提供了有關AI如何得出結論的決策邏輯,目前有多種強化AI透明度的方法,像是數位浮水印,在AI生成的內容中嵌入標記,提供可追蹤的真實性驗證。2023年底,歐盟通過的《人工智慧法案》(AI Act),也明確納入了使用生成式AI的透明度規範。
AI對齊
使用AI時,你有沒有過這樣的情況:覺得AI沒有照著你的指令,做出違反常理或社會價值觀的結果?「AI對齊」(AI alignment)就是在確保AI的輸出結果, 防止AI因為錯誤解讀指令,或過度追求單一目標造成危害。
半導體設計與軟體公司安謀(Arm)發布的《AI就緒指數報告》(AI Readiness Index
Report)裡提到一個經典實驗:賦予一個強大AI「盡可能製造更多迴紋針」的單一目標,但如果沒有給它任何約束,它可能會為了達成目標而瘋狂消耗地球資源,甚至將人類視為阻礙,最後危害社會。
要做到「AI對齊」,就必須先建立審查或監督機制,確保系統不會出現欺瞞或偏離原意的決策。目前,世界各地也都在努力訂出規則和做法,讓AI更安全。
AI安全
在使用AI時,你是信任多一些,還是擔心多一些?
根據市場研究公司益普索(Ipsos)2023年的調查顯示,有52%的人對於人工智慧產品和服務表示擔憂,他們對AI的感受,是擔憂多於興奮,他們擔心AI會意外導致災難性事件。你可能會想,這是生成式AI剛開始爆發的調查,現在的人對AI的態度,應該是擁抱大於恐懼。
然而,從整個社會的角度來看,擁有「AI安全」(AI safety)意識是必要的,當某些人工智慧系統變得跟人類一樣聰明,甚至比人類更聰明時,如果它不受人類監督,或是行為不符合人類價值,這些系統可能會對人類構成生存威脅。
從商業角度來看,安全的AI有助於建立消費者的信任、防範法律責任,以及避免錯誤決策,有利用措施確保AI使用符合其價值觀的組織,可以避免產生負面影響。
舉例來說,2022年台北捷運推出AI客服,每月使用量突破10萬人,但在2024年底,卻爆出有網友利用AI客服寫程式。這其實也算是某種AI安全漏洞,雖然廠商已經規範不能回答與政治或非捷運業務相關的問題,但在實際應用上,還是會有落差。
根據安謀(Arm)發布的《AI就緒指數報告》(AI Readiness Index Report)裡點出,AI風險有多種類型,每種類型都需要不同的AI安全措施與風險管理,以下列舉常見的AI風險類型:
偏見與歧視: 當訓練AI的輸入資料不完整或有誤導性時,AI系統可能會延續或放大社會偏見,最終做出不公平的決策。例如,用具歧視性資料訓練出的AI,可能會更傾向推薦男性求職者。
資料隱私: AI系統有可能會不當存取、揭露或濫用個人資料,導致隱私問題。
自主決策風險: 某些AI系統,如果設定他們能獨立決定決策,若缺乏人類控制或監控,可能會危害人類或擾亂系統。
隨著AI應用快速普及,企業面臨的AI風險也急遽上升,顧能公司(Gartner)指出,到了2028年,超過50%的企業將會部署AI安全平台來保護其AI投資,並集中管理AI的使用政策,防範特定AI風險。
對企業來說,除了建立完整的AI使用政策,部署AI安全平台能統一監控AI活動,讓不同AI專案能有一致性的防護機制。