管理 Management > 行銷公關
feature picture
Leonardo.AI

AI 生成內容遭批「低品質、不勞而獲」!品牌如何揭露 AI 使用程度,才不會引起反感?

2025-08-08 撰文 李岱君
分享
收藏
已完成
已取消

重點1:用 AI 生成內容已是普遍情況,然而當產出內容涉及情感表達或創意時,會引發受眾的厭惡感。


重點2:品牌揭露 AI 使用的策略,需依風險層級調整,過度或不足都可能引發顧客的信任危機。


重點3:品牌需依媒介(文字/圖片/聲音)差異化揭露 AI 使用。

近期 Spotify 平台上出現大量 AI 生成的音樂,冒充真實歌手身分發布,引發討論。例如已故鄉村歌手布萊茲·佛利(Blaze Foley)的頁面遭到入侵並上傳 AI 生成的歌曲,Spotify 因管控不力遭到強烈批評。

然而,Spotify 事件只是冰山一角。大眾對 AI 生成內容的態度複雜且矛盾,一方面享受 AI 帶來的便利,另一方面對 AI 的真實性和道德性存有疑慮。從《路透社》(Reuters)針對新聞業的調查到學術界對行銷傳播的研究,都指出 大眾對 AI 內容抱持著「時而接受、時而抗拒」的心態。

面對這樣的消費者情緒,品牌方和內容創作者該如何在善用 AI 效率的同時,維護消費者信任?

AI 生成的內容為何惹怒閱聽人?

大眾的反感,最根本的痛點是「努力的價值被顛覆」,因為作品的價值來自創作者投入的時間、精力和技能。當 AI 能在幾秒內產出人類需要數年磨練的作品時,這個價值體系便受到衝擊,也難怪音樂界將其貶低為「不勞而獲的垃圾內容」。尤其 Spotify 這種靠播放次數賺取收入的平台,放任 AI 生成作品大量出現,更容易讓人產生負面觀感。

此外,版權爭議也是一大問題。創作者普遍認為,AI 模型在訓練過程中使用了他們的作品卻未經同意,造成大規模的「數位竊取」。「公開不等於使用許可」已成為創作者社群的主張之一,例如《紐約時報》(The NewYork Times)控告 OpenAI 未經允許使用其內容訓練模型,就是一個例子。

《商業研究雜誌》(Journal of Business Research)的論文指出,當 AI 生成的內容涉及情感表達或創意內容時,會引發「道德厭惡感」,導致消費者忠誠度和正面口碑顯著下降;如果引用是事實性內容,如數據報告或產品規格,消費者的接受度相對較高。

延伸閱讀:AI 讓人變笨?微軟最新研究揭露:知識型白領正喪失獨立思考能力

怎麼揭露 AI 使用程度,消費者才不會討厭我?

然而,面對大眾對 AI 生成內容的複雜情緒,品牌無論是過度揭露還是隱瞞 AI 使用程度,恐怕都會破壞信任。「透明度」(讓外界清楚知道品牌在哪些內容中使用了 AI、使用的方式與程度) 並非愈高愈好,而是需要按使用形式精確揭露:

無需揭露的「低風險使用」: 包括文法檢查、翻譯輔助、關鍵字優化等工具。《路透社》調查發現,消費者認為這些機械性、輔助性的任務無需特別說明,就像使用拼字檢查一樣自然。

建議揭露的「中風險使用」: 涉及內容強化和重新包裝,如調整寫作風格、圖片美化、格式轉換等。此時適合使用「AI 輔助創作,專業編輯審核」等描述,強調人類仍是主導者。重點在於用詞,「AI 輔助」比「AI 生成」更容易被接受,因為前者暗示人類仍有控制權。

必須揭露的「高風險使用」: 包括完全由 AI 生成的文章、逼真的人物圖像、語音內容等。這些使用將直接影響品牌真實性,而且,標註使用的方式仍很重要,像是「結合 AI 效率與人類判斷」比「純 AI 生成」更能維護品牌形象。

《商業研究雜誌》研究還提出一個「信任悖論」,也就是當品牌主動公開 AI 使用時,消費者會質疑內容品質,但卻會提升對品牌誠實度的評價。 長期而言,誠實揭露有助於建立品牌信譽,即使短期內可能影響特定內容的接受度。

延伸閱讀:麥肯錫:七、八年級生特別重要!組織 AI 轉型的真正推手,是滿 35 歲後的「這群人」

AI 內容透明度差異化指南:文字 OK、照片慎用、聲音高風險

此外,《路透社》也指出,品牌在不同載體使用 AI 時,需要採取差異化策略揭露,因為消費者對各種媒體的信任基礎和期待截然不同。AI 生成的素材中,大眾對文字內容的容忍度最高,圖表和插圖次之,對照片和影片則最嚴格。因為閱聽人認為「照片和影片是真相的載體,相機不應該說謊」,因此對 AI 生成的視覺內容更敏感。

文字:事實性內容可安心用 AI,重點在人工審核

文字是 AI 應用最成熟的領域,也是消費者相對最能接受的形式。

初階應用集中在事實性內容,如產品規格、開店時間、客觀數據等。這些內容重視準確性勝過創意性,且消費者對事實性 AI 內容的道德厭惡感,明顯低於情感性內容。

進階應用涉及策略性內容,如行銷文案、社群貼文等。建議 AI 負責初稿和多版本生成,人類負責最終判斷和品牌調性。關鍵是讓 AI 處理「發散思維」(產生多種可能),人類處理「收斂思維」(精確表達特定概念)。

高階應用限於非情感性的專業內容,如技術分析、政策解讀等。即使在這種情況下,也建議標明「AI 輔助,專家審核」,強調人類專業判斷的價值。

圖片:慎用 AI,視內容需要多少真實性

由於消費者對不同類型圖像有不同的真實性要求,可安全使用的包括圖表、圖示等。這些本來就是「表現性」而非「紀實性」的,產製內容還停留在事實性的產出,例如利用既有資料與 AI 產出圖表。

需謹慎使用的是產品情境圖、風景照等。這類圖片雖可以用 AI 生成,但建議明確標示,並解釋為何選擇 AI(如成本考量、創意發想等)。關鍵是要誠實說明,不要讓消費者誤以為是真實拍攝。

應避免用 AI 生成的是人物照片,尤其是員工、客戶、重要活動的照片,因為這類圖像承載著對「真實」的期待,如果用 AI 生成,會被視為欺騙。

聲音:更具個人化特質,讓人容易有被詐騙感

相對安全的應用包括製作多語言版本的音檔、客服自動回覆、產品介紹旁白等功能性內容。這些情況下,消費者關注的是資訊傳達效率,對聲音的真實性要求較低。

需要謹慎的應用是廣告旁白、podcast 內容等。這些內容帶有品牌色彩,如果使用 AI 聲音,必須明確標示並解釋原因。

高風險應用包括 CEO 談話、品牌代言、客戶心得等。這些內容的價值正在於「真實的人聲」,AI 模擬會破壞可信度。

簡而言之,愈私人、情感化的內容,愈需要真實人聲;愈功能性、標準化的內容,則可以接受 AI 聲音。

資料來源:Journal of Business ResearchReutersEYzdnetdigwatch

核稿編輯:王宥筑

繼續閱讀 行銷 公關 AI
相關文章
會員專區

使用會員功能前,請先登入

  • 台灣首款對話式 AI 職場教練,一次提升領導力
  • 會員專享每日運勢、名人金句抽籤
  • 收藏文章、追蹤作者,享受個人化學習頁面
  • 定向學習!20 大關鍵字,開放自選、訂閱
  • 解鎖下載專區!10+ 會員專刊一次載
追蹤我們