

隨著愈來愈多企業與 ChatGPT 協作,人們開始關注生成式 AI 帶來的風險。今年 5 月,開發 ChatGPT 的 OpenAI 公司執行長山姆.奧特曼(Sam Altman)在美國參議院聽證會提議,成立一個美國或全球的監管機構,評估大型 AI 模型的安全性後,再頒發許可證給推行的企業。目前多數討論仍集中在生成式 AI 的好處,風險較少提及,本期將揭示生成式 AI 帶來的風險與應對策略。希望企業在政府或監管制度建立以前就先培養風險意識,提出防範機制。
侵權、隱私、資訊偏頗問題,需建立防範機制
BCG 發布的〈CEO 的生成式 AI 戰略〉(The CEO's Roadmap on Generative AI)將生成式 AI 的風險從立即危害至慢性產生影響共分成 8 類:
1. 員工私自使用: 員工未經充分指導下使用 AI 工具而產生的風險,例如:美術編輯在雇主不知情的情況下使用圖像生成軟體製圖,事後被客戶發現而損害公司名譽。
2. 資料外洩: 訓練 AI 模型時需要餵送大量的資料,但傳輸資料的過程時會有資料外洩的風險。在成本能夠負擔下,企業可選擇應用內部的基礎設施來訓練模型,而不是仰賴雲端伺服器廠商,或是訓練模型前,確保敏感的數據已經加密或匿名。
3. 網路詐欺: AI 能快速產生「網路釣魚電子郵件」,騙取個人或企業的敏感資料,像是銀行帳號、密碼等,企業應針對員工進行資安訓練。
4. 誤信事實: 生成式 AI 常提供看似正確但與事實不符的回答,員工若信以為真就會帶來風險,建議公司訂立 AI 工具的合理使用情境。
5. 侵權問題: 生成式 AI 是根據公開資料進行訓練,但多數資料受版權保護,AI 生成的內容可能涉及侵權,企業應留意智慧財產權相關的法令更新或頒布,依法調整資料使用的方式。
6. 內容偏頗: 若資料帶有偏見,訓練出來的 AI 模型也會產出偏頗的內容。技術上可以應用「從人類反饋中強化學習」(RLHF,一種機器學習的方式),透過人類的回饋來校正模型。
7. 環境危害: 相較傳統的機器學習模型,訓練生成式 AI 模型需要耗費更多的運算資源和電力,在減碳時代下,企業應將永續能源列入考量。
8. 能力過剩: 生成式 AI 在發布後,可能展現超乎開發者預期的能力,例如原先希望它協助工作者發想文案的 AI 工具,卻被有心人士當作快速生成假新聞來使用。因此公司發布 AI 模型前,應釋出測試版本供大眾使用,及早發現潛在的安全問題。
與員工一起討論,適用範圍和資安界線
考量上述風險,我建議企業先訂立「生成式 AI 使用政策」,若不確定風險的影響範圍,可在公司推行試用期,比方說:利用 API(應用程式介面)記錄員工使用 ChatGPT 的行為、對話內容,從中發掘出有風險的情境,像是問答過程中洩漏客戶隱私,再與員工一起討論訂出規範。或參考學術研究機構的做法,在發布或導入任何 AI 模型前,由審查委員評估 AI 模型的使用風險,CEO 也可指定一個團隊針對生成式 AI 的應用情境進行攻擊,抓出 AI 的弱點和潛在風險,進而提出改進措施。(口述|徐瑞廷,整理|簡鈺璇)