

你的公司,已經開始將 AI 技術使用在自己的行銷文宣或短影音上了嗎?還是早已利用 AI 取代部分人力作業了?2024 年 8 月,勞動部在一份新聞稿中,敘述青年「小唐」參加政府的就業計畫,最後成功獲得軟體工程師職位的故事,然而卻馬上被民眾發現「小唐」的照片為 AI 生成。相關單位坦承是作業疏失,並馬上修改,標示照片為 AI 生成。
觀察上述案例,讀者或許會想問:為什麼公家機關或民間企業應該主動揭露內容是 AI 所生成?
人工智慧雖然只是一種輔助工具,但因為可以大量、快速產出內容,造成的影響遠非傳統紙筆或一般電腦文書處理軟體可以比擬。當 AI 應用工具成熟,開始取代許多過往由人類自行發想、書寫、繪畫,甚至影片拍攝等工作,在感受便利性的同時,人們也逐漸浮現對於 AI 工具的不同想法。例如,在 2024 年美國華盛頓州立大學的研究中,學者發現如果企業在產品描述中加入 AI 等字眼,反而會降低消費者的購買意願。這是否也是因為大眾對於 AI 有隱約的不信任感、甚至對於 AI 鋪天蓋地而來的態勢覺得反感?
就算不排斥 AI,人們最起碼也會想要知道,看到的內容究竟是人類或是 AI 所創作,因為沒有人喜歡「被隱瞞」的感覺。另外,一旦有人對詩歌、繪畫、音樂產生共感,卻發現不是真人的作品時,那複雜的情緒恐怕要比尷尬更難以言喻。因此若企業利用 AI 產生的圖文、影片要投放到外部使用,就應該主動標示。
要增加這道流程,對於仰賴內容來獲利,或是運用內容作行銷的企業而言,自然在管理上會增加不少負擔,畢竟過往通常不須要對外揭露創作過程,也不用說明使用了那些工具。但未來若想要導入 AI 技術,就必須進行更細緻的管理。
使用 AI 有跡可循,企業不該心存僥倖
或許很多人會覺得,AI 已經能夠繪製出真假難辨的圖片,所以只要不說破,未必會被發現。但事實顯然不是如此。
2024 年 1 月,EA 的遊戲《Apex英雄》被質疑使用了 AI 進行繪製。在網友的截圖中,找到了許多正常繪圖不可能出現的錯誤。雖然一般人未必能辨別,但對於熟悉角色的玩家,或是以作畫為職業的繪師來說,卻是一眼就能看出的瑕疵。
目前 AI 出圖的成果仍不完美,不時會出現詭異的變形及多餘的細節。這是因為 AI缺乏對現實世界的基本理解,例如機械結構、材料質地等所有人都知道的「常識」。因此當企業使用了 AI 生成來生成圖片或影片,很難不被察覺。因此,建議企業還是誠實為上,以免衍生更大的公關危機。
做藝術家的生意,會被用更高標準檢視
2024 年 1 月,知名繪圖板製造商 Wacom 在宣傳龍年的新產品時,使用的插圖被質疑為 AI 生成,引發了藝術家社群的強烈反應。而 Wacom 在幾天後才承認並公開道歉。
這對企業形象造成了巨大的傷害。第一,Wacom 繪圖板的主要客群是畫家,但自己卻以 AI 取代了畫家作畫,肯定會讓客戶產生強烈的背叛感。第二,許多網友開始質疑 Wacom 究竟懂不懂繪圖?身為專業繪圖板領導廠商,竟無法看出如此明顯的作畫失誤? 這兩點難免讓消費者對Wacom 的經營理念及專業素養充滿質疑。
除了 Wacom 之外,只要是與創作較為相關的產業,也都面臨反對 AI 的聲浪。2024 年 8 月,任天堂的社長公開表示,任天堂不會使用 AI 來製作產品,或許也是因為承受了相當大的壓力。
無妄之災? AI 可能已經悄悄「滲入」公司的創作
另個值得注意的重點,在 Wacom 事件中,其實該張龍的圖片並非公司自行用 AI 生成,而是購自 Adobe 的商業圖庫,而這張照片在圖庫中卻被標示為「非 AI 」創作。
雖然 Wacom 表示,他們還有用線上工具檢測圖片是否為 AI 生成,但顯然並未成功,也使 AI 圖片能成功偷渡。在另一個案例中,《龍與地下城》(DnD)也被質疑使用了 AI 產生圖片,對此公司表示,其聘請的藝術家沒有用 AI 生成完整的圖片,但可能使用了 Photoshop 中的 AI 工具來進行修改。他們也表示,無法保證能在這個快速發展的領域中做到完美,這清楚體現了管理上的難度。
現今許多文書工具、繪圖軟體都已經內建 AI 功能,企業到底未來如何進行管理,將成為一大難題:即使告訴員工不能用 AI,也可能有漏網之魚;若是外包給其他廠商,又更難以掌握內容的來源。顯然企業應該建立更完整的把關機制,而針對 AI 的輔助,更應依實際狀況加以揭露,例如「本圖為 Dalle-E 所生成」、「本作品部分元素係以 Adobe Firefly 輔助後製而成」、「本文部分段落由 Claude 所生成,並經本站同仁編修後定稿」。
留存指令詞、原始輸出等過程紀錄
企業該如何妥善把關員工對於 AI 工具的使用?首先要注意的是,使用 AI 工具時,不是內容產生完就結束了,更應該保留相關的歷程紀錄,例如:
1.使用了哪個 AI 工具?用什麼帳號生成?
2.使用的提示詞、上傳的檔案?
3.AI 輸出的原始內容?
4.內容輸出後,是否經過人為的手動修改?
以上原本就應該是企業知識及流程管理的一部分,即使沒有使用 AI 工具,企業員工也應該忠實記錄日常作業的產出過程,一方面未來要執行類似任務時,可以更快速複製成果,或精進流程,避免曾犯過的錯誤。這在企業內部還有一個更大的功能,就是能夠確保將工作交接或交代給他人時,能夠維持相同的內容品質。另一方面,若系統已可自動記錄,就可免除手動記錄的時間,這就可以與企業的數位轉型一起執行。
做好紀錄在 AI 時代尤其重要。過往在產出內容時,員工至少還會留存編輯過程中的 Word 檔、PSD 檔等中繼檔案。但 AI 功能是個黑盒子,一旦歷史紀錄隨時間被刪除,就幾乎再也無法得知內容是如何生成。這些紀錄對於未來可能的爭議,例如著作權、內容真實性,甚至學術倫理都相當重要,企業不可不慎。
另外,使用者要注意的不只是 AI 的輸出,也要注意自己的提示詞及上傳之檔案。有人可能會想問,使用者在 AI 系統中輸入的資訊,通常外界無法得知,那為什麼要小心避免輸入不當的指令?這是因為如果 AI 產生了不適當的內容,並引發侵犯著作權、肖像權等問題,大眾或法院的目光自然會落在誰必須要為這些有問題的內容付出較大責任。
雖然目前沒有相關判例可循,但可以想像的是,若內容是因為有問題的指令而生成,則使用者要負較大責任;反之,若使用者下達指令時已盡注意義務,則可以提高安全脫身的機率。另外,大部分 AI 服務商皆規定,若輸入違法的內容,AI 服務商就有權利隨時切斷使用者的服務,且使用者會失去所有使用條款內的保障。
AI 公司、企業、社交平台都在提高透明度的路上
順應公眾的期待,目前有許多 AI 服務都要求使用者必須標示 AI 所產生的內容,如果是 AI 與人類共同創作,則應該寫明 AI 在創作過程中所扮演的角色,例如 ChatGPT、Canva 都將此義務寫入服務條款中。
社交平台也開始自律,例如 Meta 在 2024 年開始辨識使用者所上傳的圖像,若認為是 AI 所生成,就會在旗下的 Facebook、Instagram、Threads自動標示,以讓其他者知道這些圖片是 AI 產生的。
雖然 Meta 還在調整自動標示方式,也只在部分國家試行,但此趨勢應該不會改變。而身為內容提供者的企業,更應該主動揭露自己使用 AI 的情形,以免引發爭議或公關議題。觀眾和消費者有權知道他們所看到或使用的內容是由 AI 還是人類創作的,保持透明度才能建立互信。