

在 2023 年,幾名三星( Samsung )電子研發單位的員工,無意中將內部的敏感資料洩漏到外部的 AI 系統。其中一位員工將內部軟體的程式碼貼進 ChatGPT 的對話框,以尋找程式碼的錯誤;也有職員將會議紀錄上傳到 ChatGPT,轉換為簡報檔。這些做法雖然可以顯著提高工作效率,但又會對企業造成哪些潛在傷害?
舉例來說,AI 提供商為了優化效能,常會利用使用者上傳的資料來訓練自己的 AI 模型。因此當他人也利用 ChatGPT 撰寫類似的程式時,可能會意外取得三星的部分程式碼;當另一個半導體公司在擬定商業策略時,ChatGPT 也可能順便將三星的內部會議討論結果作為參考,整合在輸出的內容中。
外流的資訊已經覆水難收,而三星只能做出緊急處理,例如員工輸入到 ChatGPT 的內容限制在 1024 個位元組以下(約 300~400 個中文字)。然而事實上,若要洩漏機密,一兩行文字就已足夠造成巨大傷害,所以三星也緊鑼密鼓建立企業內部的 AI 工具來替代外部服務。
這已經是一年前所發生的事情。你的公司,現在準備好了嗎?
對於中小企業來說,或許暫時還難以自建 AI 工具,需仰賴外部服務。大家都想趕快用 AI 來「獲得」好處,但一不小心,可能會先「失去」既有財產。本文將以「風險管理」的角度,分析企業要如何在這嶄新的工作模式中,保護自己的珍貴資產。
關閉「訓練 AI」的設定
在歷經風風雨雨之後,目前 ChatGPT 將企業帳號中用於訓練 AI 的功能,預設為關閉。然而許多 AI 工具仍然將此功能預設為開啟,或是要購買更昂貴之版本才能關閉。
有部分 AI 服務,甚至無法在系統內直接關閉 AI 訓練的功能,筆者就不推薦企業用戶使用。若一定要用,則要嚴格落實接下來的建議內容。
只提供「必要資訊」
使用者上傳的資訊,即使不被用來訓練 AI,也都會長期或暫時存在 AI 服務商的伺服器上,在這駭客猖獗的年代,不能說沒有風險。有一些 AI 工具會詢問要不要幫使用者「記憶」先前輸入的資料,來獲得更好的使用體驗,這雖然可以提高工作效率,但企業也應權衡整體風險,再決定是否使用。
每一個使用者都應該做到的是,輸入資料或上傳檔案或到外部 AI 系統時,應先移除敏感資訊,例如將公司名稱、人名、金額等資訊以代號置換或匿名化處理,僅保留必要的資訊,切勿原封不動將檔案交給 AI 進行分析。內容要處理到何種程度,必須依文件性質來做判斷,通常企業內部也會有自己的文件管理規範,甚至製作不同分享層級的版本。
對使用者來說似乎有些複雜,但背後的原理相當簡單。只要在每次按下 ENTER 鍵之前,再確認一次 是否只輸入了「必要資訊」 即可。另外,有一些廠商開發出資料外洩防護(Data Loss Prevention,DLP)工具,可自動偵測使用者是否正在進行資料外洩,或可一試。
高風險文件「禁用」於外部 AI 工具
企業內部多有機密文件的分級制度,對於部分高風險的機密資料,應該完全禁止輸入外部 AI 工具 。因為即使員工再怎麼仔細刪除敏感資訊,仍可能百密一疏。
另外,許多資料並非公司自己的資產,而是來自於企業外部,因此合作廠商常會要求公司簽署保密協議(NDA),不能對第三方透漏相關資料。若有證據指出這些資料被傳送到外部的 AI 服務,即使已經刪除機密資訊,也可能直接違反保密協議,必須支付高額的賠償金。
舉例來說, 利用 AI 翻譯合約、技術資料就屬於高風險的行為,因此在文件上必須要明確標示風險等級,以免使用者誤用。
雖然企業可能不認為除去敏感資訊的文件還有風險,但若設身處地,是否能接受對方拿自己提供的資料交給 AI 處理?未來企業在訂定保密協議時,我們應該會看到更多與 AI 有關的條款。
結語:了解 AI 基本原理、強化風險意識
外部 AI 工具能夠快速幫助企業提高工作效率,但也會帶來顯著的資安風險。企業必須採取恰當的應對策略,或可以開始思考不要直接使用外部服務,考慮以 API 串接(通常可避免資料被拿去訓練 AI),或是自行建置 AI 系統更佳。
強化風險意識應該成為企業文化的一部分。這不僅僅涉及 AI,而是公司整體資訊安全意識的提升。企業應該定期進行教育訓練,並提供明確但不冗長的 AI 使用政策說明,包含哪些類型的資訊可以輸入外部 AI 系統,哪些是明令禁止的。同時,也要從基礎開始教導員工如何判斷機密資訊,與對應的處理方式。
另外,員工也必須了解 AI 技術的基本原理。如果對 AI 如何處理資料有所誤解,就難以察覺到隨之而來的風險,或是因為過於懼怕而不敢使用 AI。