成功 Success > 數位工具
feature picture
ChatGPT

你的公司機密、辦公室戀情,駭客可能正在聽!這 5 件事,千萬別對 AI 說出口

2025-08-25 Yourator
分享
收藏
已完成
已取消

2025 年初英國科技媒體《The Register》揭露 OpenAI 的 ChatGPT 曾出現重大資安漏洞,攻擊者透過惡意網頁就能竊取使用者在 ChatGPT 輸入的提示詞與帳號資訊,所以像是請 AI 寫曖昧訊息給行銷部的某人或輸入尚未公開的提案內容,其實正默默被模型記住甚至被駭客擷取,即便 OpenAI 事後已修補漏洞,但這起事件仍提醒我們「AI 不一定能將私密對話守口如瓶」。

延伸閱讀:GPT-5 為何不賣情緒價值了?OpenAI 停止討好用戶,背後藏著奧特曼的管理玄機

這 5 件事最危險!千萬別對 AI 說出口

1. 公司內部機密資料

只是想讓 AI 幫你優化程式碼、整理簡報,結果卻把公司原始碼或產品資訊全盤托出,這正是 2023 年三星工程師的真實案例。工程師貼上公司原始碼至 ChatGPT 協助除錯,導致機密外洩,三星最後全面禁用 AI 工具。

2. 同事或主管的實名資訊

像是「幫我寫信給王小明經理」、「我跟行銷部的小美在曖昧」這類輸入,看起來只是請 AI 幫忙寫信或潤飾對話,卻直接暴露特定人的真實身分。這些內容一旦被模型記錄或重組,甚至在其他人對話中出現,不只可能違反個資法,更可能引發職場信任危機。

3. 自己的私事與職場祕密

「我想跳槽」、「我偷偷兼差開店」、「我跟主管不合」等,這些都屬於高度敏感內容,AI 工具無法辨別你是否願意讓這些話被保存,這些輸入若外洩,輕則尷尬重則失業。

4. 尚未公開的創意與企劃

像是行銷 campaign、新產品定位、策略簡報等,這些還沒正式對外發表的構想,一旦輸入到 AI 工具中,就有可能被模型學走,未來以重組形式出現在他人生成的內容裡。像是影像生成式工具 Stability AI,因生成的圖片帶有藝術家風格與創意痕跡,而遭創作者控訴侵權,雖然這是圖像模型的案例,但同樣的風險也存在於文字生成。

5. 帳號密碼、身份證號、病歷等等敏感資訊

根據美國據資安公司 Group-IB 調查,一年內就有超過 20 萬筆 ChatGPT 帳密外洩並流入暗網,其中許多來自中毒裝置或不明瀏覽器擴充套件。因此像是帳號密碼、身份證字號、健康報告、心理諮商內容等,這些都屬於高度敏感資料,不該輸入到任何 AI 工具中,即使只是請 AI 幫忙記密碼或翻譯診斷報告,也可能會被系統保留甚至外洩

AI 工具怎麼用才不踩雷?記住這 3 大原則

一、輸入前先自問「這段話能公開嗎?」

如果答案是否定的,那就別輸入。保守原則永遠勝過事後補救。

二、選擇資安保障的 AI 方案

像 ChatGPT Enterprise、Microsoft Copilot for Business 等,具備不儲存及不訓練條款,較適合企業與專業人士使用。

三、改用模擬情境描述取代真實資訊

需要幫忙寫信或做簡報?以「部門 A」、「產品 B」、「主管 C」代稱,既能取得回應,又保留資訊彈性。

延伸閱讀:「我的孩子很可能不會上大學」OpenAI 奧特曼如何描繪 AI 與人類共存的世界?

AI 用對方法是絕妙拍檔,但用錯方法可能會是洩密幫兇

你對 AI 輸入的每句話,都有可能被模型記住或,甚至在暗網上換成別人的錢。而關鍵並非不能說,而是怎麼說。練習用模擬語境、選擇具備資安保障的工具,才能讓 AI 真正成為你可靠的職場助手,而不是意外的風險來源。

(本文出自 Yourator

繼續閱讀 AI
相關文章
會員專區

使用會員功能前,請先登入

  • 台灣首款對話式 AI 職場教練,一次提升領導力
  • 會員專享每日運勢、名人金句抽籤
  • 收藏文章、追蹤作者,享受個人化學習頁面
  • 定向學習!20 大關鍵字,開放自選、訂閱
  • 解鎖下載專區!10+ 會員專刊一次載
追蹤我們