

隨著 AI 工具推陳出新,所引發的問題也不停增加。近期新聞報導,內建 AI 的電動車,居然會回答最近有誰坐過副駕駛座,在車內又做了什麼,因此被戲稱為「捉姦神器」,也引發了對 AI 系統所有權及隱私權的討論。這同時體現了 AI 的發展及衍生風險正以極高的速度向上攀升
生成式 AI 是由遠超過人類一輩子閱讀量的文字、影像、聲音所訓練而成,但卻缺乏普通人類的價值觀及基本判斷能力。對筆者來說,「他」就像是個博學多聞、過目不忘的孩子,卻缺乏生活常識;偶爾胡說八道,又時常過度坦誠,因而需要隨時照料。因此,無論單純利用 AI 產生內容,或是將 AI 包裝為自家服務的公司,都應該特別小心謹慎。
本篇文章將會介紹,使用 AI 生成內容之後,如何把握幾個能夠降低風險的檢查重點,避免受「幻覺」(hallucination)影響,針對內容的正確性做最後把關。
重點一:交叉比對,驗證輸出內容的正確性
大型語言模型(LLM)在生成文字內容時,可能會因為「幻覺」而產生看似合理但徹底錯誤的回答。
2023 年 5 月,美國一位律師使用 AI 撰寫訴訟文件,但引用的法院判決全部都不存在,純粹是 AI 所杜撰。這名律師由於違反律師倫理,將面臨處分。事實上,AI 直至今日都仍會產生許多重大的錯誤,需要人為介入才能解決。
由於 AI 工具會產生錯誤和偏見,公司員工在使用這些工具時,應保持警惕,務必交叉比對生成的內容,確保資訊是準確的。不過也須注意,若校對需求的人力或投入資源太高,企業應謹慎評估在此類工作導入 AI 是否具有正面效益,不應「為導入而導入」。
重點二:你的文章,讀起來有「AI」味嗎?
雖然生成式 AI 能夠產出相當流暢的文章,然而仍存在一些文句特徵,除了容易被識別出來,也可能干擾文章的閱讀。
舉例來說,AI 文章的段落結構及長度,有非常強的規律性,缺乏人類寫作時的自然變化。筆者另常觀察到的是,AI 傾向使用繁複的詞彙以及複雜的句型去編排文章。
以下列這段網路文章為例:
「AI 搜尋引擎的興起既代表了令人興奮的科技進步,也代表了對網路內容創新、分發和消費的既定規範的重大挑戰。展望未來,要找到利用 AI 搜尋力量的新方法,同時保護內容創作者的權利和生計。這可能需要結合技術創新、新的商業模式、道德準則和潛在必要的監管框架。目的就是讓 AI 成為增強而不是削弱網路作為一個多樣化、充滿活力的資訊和思想來源的角色。」
以上的文章,雖然文法完全正確,但讀起來總有一種「卡卡」的生硬感覺,你覺得呢?
AI 的寫作風格較為單調,這或許是因為訓練資料太多,最終都被稀釋為中性且通用的表達方式。更大的問題是,AI 文章的內容時常是單純堆砌詞藻,卻沒有深度及細節,當進行分析時也缺乏因果關係及具體內涵,使得讀者看完一篇文章後仍是滿頭問號。
以筆者之經驗,要解決此類問題,最容易的方法就是「追問」,也就是將 AI 所提出的論點拆解後,逐一「逼問」更細部的內容,同時要求 AI 不要回答已知的背景資訊或進行空泛的總結,最後再把這些細部內容做梳理、合併、編排。
至於寫作風格過於單調的問題,則可以要求 AI 進行「角色扮演」的方式來改善,例如下提示詞:「假裝你是一位資深的台灣法官,請以不卑不亢的口吻,對此社會議題進行評論。」或是直接上傳想要風格的文章作為範本,讓 AI 能直接參考。
也有許多人發現,有一些詞語人類不常使用,但在 AI 文章中出現的機率卻非常高。例如英文的「delve into」(深入研究),就被拿來做為偵測 AI 文章的詞語之一。在中文的 AI 文章中,也常看到「總的來說」之類的用法。想要去除「AI 味」,檢查文章時遇到這類字詞太常出現,也可以做部分刪改。
雖然以上遭遇問題可以用一些強化過的指令詞,或是特殊的服務來改善,不過在作業流程上常會過於複雜或效果不彰,也可能衍生多餘的成本。因此使用者務必謹記要詳加檢查 AI 生成內容,尤其如果最後號稱人類撰寫卻又被抓包是 AI 生成,可就不好看了。
重點三:生成圖片時,要檢查「意外的」錯誤
除了文字之外,利用 AI 生成圖像也非常受到使用者歡迎。畢竟大多數人都能寫字,卻未必能夠作畫。如果幾秒就可以生成圖片,那可是非常有成就感的。
然而,AI 生成之圖片,常會有意想不到的問題。2024 年 1 月,《龍與地下城》(Dungeons & Dragons,常被簡稱為DnD)的發行商 WotC(Wizards of the Coast),在廣告中展示了一系列精美的卡牌。
各位讀者,你看得出上列這些精美的圖片,是出自於 AI 之手嗎?至少專業的畫師是絕對可以看出來的。
這些錯誤是肇因於 AI 對於現實世界,尤其機械、物理現象的理解不足,所以會出現人類繪師不可能畫出的錯誤內容,即使圖像再精美,也禁不起細部檢視。
另一點要注意的是圖片中的文字。若圖像要進行商業化使用,例如設計廣告海報、產品包裝,往往必須加上文字。這在過去通常是交由專業人員處理,絕對不成問題。但如果由一般員工以 AI 產生,那就是另一回事了。由於技術的原因,目前要利用 AI 產生圖像再加上文字時,往往會有拼寫錯誤、順序混亂及亂碼的情形。
以通用的 AI 服務來說,目前要在圖像中正確生成中文文字非常困難。如果是英文文字,雖然較容易成功,但也常會出現拼寫錯誤的狀況。筆者這一兩年時常看到許多海報上有離譜的英文拼寫錯誤,明顯是出自 AI 之手。由於製作者多半是「想要讓 AI 自己來幫忙做海報」的高知識分子,也不免為他們感到尷尬。
若是企業犯下這樣的錯誤,極可能會損害到專業形象。目前市面上已經有一些特化的模型,例如 Stability AI 公司的 DeepFloyd IF 就可以解決這樣的問題。若有大量生成圖文的需求,且不想聘用專業人士,建議可額外訂閱此類服務使用。
建立一種健康學習與使用 AI 的企業文化
AI 工具的發展日新月異,然而其最佳使用方式,沒有標準答案。AI 技術在不同產業、領域必定有不一樣的運用方式,如果是熟悉特定領域的專業人士,肯定可以看到更多不同的問題點。本文提供的檢查點只是最初步的通則,企業員工應該多利用自己的領域知識(Domain knowledge),謹慎微調、持續優化自己使用 AI 的方式。
舉例來說,一篇乍看由普通人所寫、內容沒有問題的文章,卻可能被專家一眼看出,文章內容與某個知名作家的著作過於雷同,必須修改後才能使用。
因此,如果能夠廣泛聽取身邊同事、朋友的意見,例如請對方查看自己利用 AI 做的文宣有無問題,往往能夠發現自己的盲點,或得到其它意料之外的幫助。這種協作方式對公司來說,不但成本低,又十分有效。這也就是為什麼,筆者認為現在的企業不應該讓員工「偷偷用」、「默默用」AI,反而要鼓勵大家公開使用方法與成果、並持續交流討論,建立一種健康學習與使用 AI 的文化。
核稿編輯:溫為翔