

在 2023 年 AI 熱潮高峰時,根據《商業內幕》(Business Insider)、《彭博社》(Bloomberg)與《聯合新聞網》報導,美國不少新創公司與科技企業開出年薪 30 萬至 50 萬美元,爭相挖角具備高階提示設計能力的人才,「提示工程師」這個職位也因此成為市場上的話題焦點。
但是,我從來不相信這個職位能夠長久存在,只不過是技術發展初期的過渡現象,你可以想一下,你有聽過任何一家公司招聘過「PPT 總監」,負責幫全公司的人做投影片?提示工程師的存在和 PPT 總監同樣荒謬。荒謬之處並非在於它不重要,而是提示工程這個能力從來就不該是一種職業,而是一種職能,只要你的工作需要開啟電腦,就要具備的職能。
「詠唱咒語」並不神祕,是讓機器理解比較聰明的人類
過去電腦很笨聽不懂人話,為了讓它們完成任務,聰明的人類必須學習機器的語言,用嚴謹的語法與邏輯與之對話,命令它們做事。這種數位世界的翻譯人員就是程式設計師。直到 ChatGPT 問世,語言模型開始能夠理解自然語言、聽得懂人話,人們第一次可以用接近日常對話的方式與機器溝通,正因如此,過去高不可攀的技術門檻,降到前所未有的低。
近年來,「提示工程」(prompt engineering)成為熱門關鍵字。有人將它視為與 AI 溝通的祕密武器,但其實,提示工程的本質是用自然語言與機器交流,是一種全新的表達與協作能力。
我常形容 AI 像是一位剛從海外歸國的優秀菁英,他非常聰明、具備豐富的基礎知識,能力也很強,但剛來台灣,中文還不夠流利。這就像才 2 歲半的 ChatGPT,對人類語言的掌握還不夠輪轉,經常會在理解上下卡住。此外,就算他聽懂了你的話,也可能因為缺乏社會經驗而不知道該怎麼做。因此,我們需要透過 prompt,引導它理解我們的需求並有效執行。提示語必須語意清晰、結構完整,像與人溝通一樣,才能一步步引導 AI 走向正確的目標。
不過,不能完全用人類的溝通邏輯來期待 AI 的反應。因為機器的「腦迴路」和我們人類不同,我們對人也許只需要耐心多講幾次就能說通,但對 AI 重複語意不總是有效。它不是聽不懂,而是缺乏推理與背景理解的能力。因此,我們必須學會配合機器的邏輯來思考,例如用角色扮演的方式設定它的任務角色,或透過「一步步想」的思維鏈方式,引導它在邏輯上產生連貫推論。
AI愈來愈聰明,就不需要prompt了嗎?
很多人認為,既然 AI 會愈來愈聰明,總有一天能完全理解人話,提示工程就會變得可有可無。也有人說,出現愈來愈多具備推理與規畫能力的新模型,像是 GPT-4o 這樣的多模態與長上下文模型,已經不需要太多精細的提示設計。
這樣的想法聽起來合理,卻忽略了一個根本問題:AI 的進步並不代表它能自動理解人類的意圖。
即使推理模型能力大幅提升,它也依然缺乏情境判斷、社會常識與長期經驗的積累。它能推論,但它不知道你為什麼問這個問題、背後的動機是什麼。就像再怎麼厲害的助手,沒有明確交代任務與目標,也做不出正確成果。
AI 愈強,表示它可以做的事愈多,這正是提示工程不但沒過時,反而更重要的原因。
想想我們為什麼要學英文、談判、簡報?因為是與人溝通,充滿理解偏差與表達落差,更何況是沒有情感、缺乏直覺與社會經驗的 AI。AI 不像人類擁有背景知識與人情世故,它只根據文字做反應,因此我們無法期待它能「自己懂」。AI 就像古代進京趕考的書生身邊的書僮。他不負責替你答題,也不會取代你的努力,但他可以在你求取功名的路上,提供各種關鍵協助。與 AI 溝通,需要更清晰的邏輯、更具結構的表達,才能讓它正確執行我們的需求。這正是為什麼提示工程不是一種多餘的技能,而是一門值得反覆練習、日漸精進的現代語言能力。
核稿編輯:張玉琦