

使用 AI 的老手們都知道,如果指令下得不好,之後要花費更多心力才能把內容修改成能用的材料。所以許多教學課程都著重在設計出有效的提示詞,以得到令人讚嘆的內容。甚至還有「提示工程」這樣的新興學門出現,網路上也可以下載到許多專家調校好的提示詞可立即使用。
然而,這些「咒語」雖然能產生高品質的內容,卻往往不會顧慮到背後有大小不一的風險。例如,當 AI 生成的內容與他人的作品過於相似,或可以看出名人的臉孔,就很有可能侵犯到他人的權益。
AI 只是工具,重點在使用者的心態
人工智慧服務,在本質上是一種中性的工具。若生成之內容侵害了他人的權益,是使用工具的人需要負責,並非咎責工具本身或製造工具的人,就像利用文書處理軟體 Word 編寫文件,若最終的內容被發現是抄襲自他人,也不該將責任推給微軟。
因此,使用者需要擔負所生成內容的最終責任,不可以 AI 生成作為侵害他人權益的藉口。若內容公開後造成了第三方的損失,輕則被公眾譴責,重則被告上法院,企業亦然。AI 工具是個黑盒子,無從一窺內部的運作方式。所以使用者若要避免風險,首先能做的事,就是在「輸入」上下功夫。以下說明 3 種下提示詞時可能犯下的錯誤。
錯誤 1:刻意生成他人作品
生成式 AI 的輸出所最有可能造成的風險,就是著作權侵害。就技術面而言,由於 AI 模型是由極大量不同來源的資料訓練而成,所以只要不刻意為之,其實不容易生成與單一作品高度近似的內容。
從以上例子可以看出,如果筆者從沒見過 Hello Kitty,即使不小心輸入了這個角色的特徵,也不至於生成出侵權的作品。然而,如果提示過於精確,甚至直接提供了作品或角色的名稱,會發生什麼結果?
答案是,當提示詞過於精確時, AI 很可能會被誘導輸出高度相似的內容,大大提升了侵權的可能性。這也呼應了前面所提到的觀念:使用者必須要擔負最終責任,因為內容會不會侵權,往往是由使用者決定的。
其他更嚴重的侵權行為還包括將既有的文章、圖像、影片等作品直接上傳,要求 AI 進行模仿或修改。須特別提醒的是,複製並上傳他人的著作權作品,本身就已經是侵權行為。許多 AI 服務為避免使用者蓄意侵權,已經內建了辨識、阻擋此類提示詞的功能。
錯誤 2:模仿創作者的風格
AI 可以藉由大量學習藝術家的作品,輕易模仿畫風、嗓音等個人風格。相較於著作權,這比較屬於法律上的模糊地帶,因此也成為有心人士的謀財管道之一。舉例來說,在 Youtube 上搜尋「AI 孫燕姿」,就可以找到許多與原唱真假難辨的 AI 生成歌曲。
個人風格未必能受法律所保護,但也並不代表能夠免除使用上的風險,對企業尤其是如此。例如在 ChatGPT 造成轟動之前,就有日本廠商推出 AI 工具mimic,只要上傳作品到系統,就能大量產生相同畫風的作品。
mimic原本只是一個讓繪師利用 AI 輔助繪製自己作品的工具,但由於無法阻止他人的惡意濫用,最終在一面倒的批評聲浪下中止了服務。這充分體現社會賦予企業的道德責任往往高於法律的規範,所以即使有模糊空間也不應涉足。
因此,若企業想要以他人風格生成自有內容,仍建議須取得本人之同意。在mimic 後來釋出的新版本中,官方也強化了帳號的審核,並提高透明度,在生成的作品中加上浮水印再強制公開。
錯誤 3:使用他人的身分識別
除了針對作品的模仿外,使用者也不應蓄意讓 AI 工具製作出包含名人面孔,或是知名企業識別的圖像。2024 年 1 月,美國就有 podcaster 因為生成已過世之知名喜劇演員 George Carlin 的演出影片,並在 Youtube 上發布,讓人誤以為這是 George Carlin 本人的演出,而在法院被起訴。
另外,2024 年 5 月 OpenAI 發表 GPT-4o 時,刻意讓大眾連結到電影《雲端情人》(Her)中為 AI 角色配音的的史嘉蕾.喬韓森(Scarlett Johansson),雖然沒有真正盜用聲音的證據,但也已引發軒然大波,OpenAI 也馬上下架此人聲,以避免更嚴重的公關危機。
結語:守法觀念是一切的基礎
前述所有的例子,都有一個共通點:即使拿掉 AI 工具,也都構成侵權行為。另外,這些內容,通常都是被蓄意生成的。即使並非故意,正常的使用者也會察覺到不妥而做出調整。另外對於輸出姓名、住址、電話等侵犯他人隱私的情形,或是產生不實的資訊,使用者也都要保持敏銳度,並擔負最終的責任。
企業及使用者都須謹記,原本不能做的事情,換成用 AI 做當然也是不行的。從企業管理的角度來說,這反而是一件好事,因為只要平常有針對這些關鍵點,例如著作權、肖像權、隱私權等,執行正確的員工訓練及觀念導正,毋須使用冗長的規範進行管理,員工自然能夠合理且正確的使用 AI 工具,並降低企業的經營風險。