成功 Success > 數位工具
feature picture
經理人

生成式 AI 為企業帶來哪些危機?BCG 報告:CEO 應關注 8 大風險,建立使用規範

分享
收藏
已完成
已取消

隨著愈來愈多企業與 ChatGPT 協作,人們開始關注生成式 AI 帶來的風險。今年 5 月,開發 ChatGPT 的 OpenAI 公司執行長山姆.奧特曼(Sam Altman)在美國參議院聽證會提議,成立一個美國或全球的監管機構,評估大型 AI 模型的安全性後,再頒發許可證給推行的企業。目前多數討論仍集中在生成式 AI 的好處,風險較少提及,本期將揭示生成式 AI 帶來的風險與應對策略。希望企業在政府或監管制度建立以前就先培養風險意識,提出防範機制。

延伸閱讀:ChatGPT 之父:政府應介入監管 AI 發展!畫出「三道紅線」,預防潛在風險

侵權、隱私、資訊偏頗問題,需建立防範機制

BCG 發布的〈CEO 的生成式 AI 戰略〉(The CEO's Roadmap on Generative AI)將生成式 AI 的風險從立即危害至慢性產生影響共分成 8 類:

1. 員工私自使用: 員工未經充分指導下使用 AI 工具而產生的風險,例如:美術編輯在雇主不知情的情況下使用圖像生成軟體製圖,事後被客戶發現而損害公司名譽。

2. 資料外洩: 訓練 AI 模型時需要餵送大量的資料,但傳輸資料的過程時會有資料外洩的風險。在成本能夠負擔下,企業可選擇應用內部的基礎設施來訓練模型,而不是仰賴雲端伺服器廠商,或是訓練模型前,確保敏感的數據已經加密或匿名。

3. 網路詐欺: AI 能快速產生「網路釣魚電子郵件」,騙取個人或企業的敏感資料,像是銀行帳號、密碼等,企業應針對員工進行資安訓練。

4. 誤信事實: 生成式 AI 常提供看似正確但與事實不符的回答,員工若信以為真就會帶來風險,建議公司訂立 AI 工具的合理使用情境。

5. 侵權問題: 生成式 AI 是根據公開資料進行訓練,但多數資料受版權保護,AI 生成的內容可能涉及侵權,企業應留意智慧財產權相關的法令更新或頒布,依法調整資料使用的方式。

6. 內容偏頗: 若資料帶有偏見,訓練出來的 AI 模型也會產出偏頗的內容。技術上可以應用「從人類反饋中強化學習」(RLHF,一種機器學習的方式),透過人類的回饋來校正模型。

7. 環境危害: 相較傳統的機器學習模型,訓練生成式 AI 模型需要耗費更多的運算資源和電力,在減碳時代下,企業應將永續能源列入考量。

8. 能力過剩: 生成式 AI 在發布後,可能展現超乎開發者預期的能力,例如原先希望它協助工作者發想文案的 AI 工具,卻被有心人士當作快速生成假新聞來使用。因此公司發布 AI 模型前,應釋出測試版本供大眾使用,及早發現潛在的安全問題。

021針對8種風險採取應對方式
經理人
延伸閱讀:生成式 AI 為 CEO 們帶來集體焦慮!麥肯錫:企業導入新技術,應特別注意哪些事?

與員工一起討論,適用範圍和資安界線

考量上述風險,我建議企業先訂立「生成式 AI 使用政策」,若不確定風險的影響範圍,可在公司推行試用期,比方說:利用 API(應用程式介面)記錄員工使用 ChatGPT 的行為、對話內容,從中發掘出有風險的情境,像是問答過程中洩漏客戶隱私,再與員工一起討論訂出規範。或參考學術研究機構的做法,在發布或導入任何 AI 模型前,由審查委員評估 AI 模型的使用風險,CEO 也可指定一個團隊針對生成式 AI 的應用情境進行攻擊,抓出 AI 的弱點和潛在風險,進而提出改進措施。(口述|徐瑞廷,整理|簡鈺璇)

相關文章
會員專區

使用會員功能前,請先登入

  • 台灣首款對話式 AI 職場教練,一次提升領導力
  • 會員專享每日運勢、名人金句抽籤
  • 收藏文章、追蹤作者,享受個人化學習頁面
  • 定向學習!20 大關鍵字,開放自選、訂閱
  • 解鎖下載專區!10+ 會員專刊一次載
追蹤我們