分享
當AI 以前所未有的速度被導入各種工作流程,在企業現場,我們看到有人用AI完成繁瑣任務,也有人在努力管控它的風險。身為培育「用 AI 的人、做 AI 的人、管 AI 的人」的台灣人工智慧學校,如何讓技術真正造福企業,是「AI 新管理」專欄希望分享的觀察與思考。
在這波 AI 浪潮中,更需要被提醒的是,它看似博學多聞,也是「吃五穀雜糧」長大的,仰賴大量人類生產的資料作為訓練養分。這意味著,AI 也可能繼承了,人類世界既有的偏見、錯誤資訊和價值觀的局限。於是,我們看到了 AI 一本正經卻胡說八道,產生「幻覺」,或是帶有歧視色彩的圖文。
這也是為什麼「負責任 AI」(responsible AI)的呼聲日益高漲,也就是倡議 AI 的發展必須符合公平、透明、安全、隱私、可問責以及對人類有益等基本原則。但所謂的「負責任」,究竟該由誰來負責?是寫程式的人?是賣服務的公司?還是敲鍵盤的我們?我們試著釐清這場「責任接力賽」的每一棒:
模型製造者確保訓練資料品質,服務提供者再次過濾呈現內容
1.源頭造物者(AI 模型製造者) :開發大型語言模型的科技巨頭或頂尖學術單位是AI的造物主,掌握著源頭的技術與演算法,責任最為艱鉅。首先,他們必須使用高品質、合法授權且具備多樣性的資料進行訓練,從源頭減少偏見與歧視的生成。其次,他們必須在模型中內建強大的安全閥,過濾掉惡意的輸入指令,防止模型產出教唆犯罪、色情暴力等不符合安全規範的內容。
更重要的是「透明度」。模型製造者不能把 AI 當作黑盒子,應當明確說明個資政策、訓練資料的來源與授權情況。
2.中介把關者(AI服務提供者) :絕大多數的使用者是透過各種應用程式、網站服務或智慧裝置來使用AI。這些服務提供者,就像是餐廳的大廚,負責將AI 模型包裝成美味的料理。
服務提供者必須築起一道堅固的防火牆。當使用者將資料輸入系統時,服務商是否有嚴謹的隱私管理措施,確保這些資料不會被濫用或外洩?同時,對於 AI 產出的內容,服務提供者也需具備 2 次過濾的能力,避免違反法規或倫理的內容直接呈現在終端使用者面前。一個負責任的服務商,應該制定完整的個資與資料管理政策。
輕易「外包」大腦,恐弱化獨立思考的能力
3.AI 應用使用者 :AI 再強大,終究只是工具,而握著方向盤的是我們。作為使用者,在使用 AI 服務前,先確認該平台的模型是否符合你的價值觀?資安紀錄是否良好?營運團隊是否值得信賴?
在操作層面上,不要為了貪圖方便,就將公司的機密業務資料、個人的隱私個資、相片或聲音,毫無保留餵給 AI。此外,我們應抱持著「人機協作」,而非「全盤託付」的態度。對於 AI 產出的每一段文字、每一張圖片,都應審慎懷疑,並擔任最終的編輯與審核者。最後,使用 AI 協助完成作品時,加上適當的標示與說明,不該將 AI 的產出誤導為自己獨立完成的創作。
4.最後的守門員(AI 內容閱聽者) :你我都是 AI 內容的接收者,都是最後一道防線的守門員。我們需要更敏銳的「數位識讀能力」,看到明顯不合常理、過度完美、立場極端特殊的資訊或影像時,請先按下暫停鍵,主動查證,而不是急著轉發。
我們更要警惕自己,不要因為 AI 太方便而將大腦「外包」。過度依賴 AI 提供的懶人包或結論,長期下來恐將弱化獨立思考與理性批判的能力。
只有當大家都願意多花一點心力,多一道安全檢測、多一次隱私確認、多一番查證思考,負責任 AI 的氛圍才能真正擴散。唯有如此,我們才能確保 AI 持續往「善」的方向前進,成為人類文明的助手,而非失控的對手。
核稿編輯:張玉琦