撰文 李岱君
不會問 AI 問題,就請它教你!簡立峰教你 4 招問出「地球上沒有的知識」
分享
「AI 時代最重要的是問一個好問題」這句話已經成為顯學。
Google 前台灣董事總經理簡立峰指出,AI 本質上是一個機率模型,透過文字接龍的方式生成答案,因此答案的品質取決於提問方式。然而,多數人習慣將 AI 當成 Google 搜尋引擎,去尋找「已經存在的知識」,而非問出「地球上原來沒有的知識」。這種思維差異,決定了你能否駕馭 AI。
但問題是,究竟怎麼培養提問的能力?
不知道怎麼問 AI,就請它教你
《思辨,從問對問題開始》將思考分為海綿跟掏金式思考,海綿是被動吸收知識,但淘金式思考,是你必須透過有系統的提問,從資訊砂礫中篩選出黃金。
簡立峰建議,當你不知道該怎麼問時,直接問 AI:「我該如何問你一個好問題,才能得到關於 XX 主題的最佳答案?」或者「為了回答這個問題,你還需要我提供哪些資訊?」
簡立峰強調,AI 就像一個陷阱,太容易溝通,反而讓人忽略了「說明書」的重要性。所謂的說明書,就是提供充足的情境、前後文、人事時地物。
讓 AI 教你如何與它互動。AI 會告訴你它需要什麼樣的背景資訊、哪些參數需要明確定義、什麼樣的問法能得到更精準的答案,這等於是在訓練自己的提問能力。
拆解問題與記錄過程,避免大腦外包
對於需要廣泛蒐集資料的任務(如分析國際局勢),簡立峰會利用 AI 的 Deep Research(深度研究)功能。他舉例,每天早上會請 AI 整理當日的 AI 趨勢報告,在短時間內閱讀大量報告並生成摘要,這些報告的品質已達到碩博士級水準,僅需 3 到 5 分鐘就能取得。
但要警惕大腦外包,缺乏知識基礎的人很容易全盤接收 AI 的答案,以致於難以建立自己的觀點。簡立峰的應對策略是:不要直接拋出大哉問,而是請 AI 將問題拆解成一系列小問題,逐步引導思考。
例如,不要問「為什麼台灣科技業會成功?」而是拆解成:台灣科技業的主要優勢是什麼?這些優勢是如何形成的?歷史上有哪些關鍵轉折點?與其他國家相比,台灣的差異在哪裡?
此外,記錄與 AI 互動的過程,並用自己的話重述一遍,以確保知識內化。
如果未來決策出錯,你可以回頭檢視:是 AI 的推論有問題,還是你的提問方式有偏差?這種記錄讓你能夠持續精進,而不是每次都從零開始。
跨模型交叉詰問,讓不同 AI 互相質疑
但 AI 會根據你的提問方向生成答案。如果你問「為什麼川普的關稅政策很糟?」AI 就會給你一堆反對理由;如果你問「這項政策的潛在好處是什麼?」AI 也能給你支持的論點。
這代表,如果你本身就對某個議題有偏見,AI 不會幫你糾正,反而會強化這個偏見,因為你的提問方式已經引導了答案的方向。再者,每個 AI 模型都有自己的訓練資料偏誤和價值觀傾向。
簡立峰的應對策略是跨模型交叉詰問。當使用 Google Gemini 整理報告後,他會再將產出的內容丟給 ChatGPT 或 Claude,請它們「質問」這份報告的觀點,藉此產出不同視角,避免單一模型的偏誤。
具體做法是,當你拿到 Gemini 生成的報告後,可以這樣問 ChatGPT:「請檢視這份報告的推論結構,指出可能的邏輯漏洞」、「這份報告有哪些重要的反方觀點被遺漏了?」
切換英文提問,跳脫繁體中文思維
也由於大型語言模型高達 70% 至 90% 的訓練資料是以英文為主,繁體中文的資料量極少,簡立峰建議採取「英文問、中文答」的策略:先將問題翻譯成英文,取得英文答案後再請 AI 翻譯回中文,以獲得更準確、更全面的資訊。
但這個策略有個前提:你問的問題本身就存在於英文世界的知識庫中。如果你用英文問台灣本地的法規、政治、文化問題,AI 可能會胡說八道,因為訓練資料中根本沒有足夠的在地知識。
簡立峰的建議是,在詢問本土資料時,必須格外小心,詳細交代背景資訊。像是不要只問「台灣的勞基法規定是什麼?」而要問「台灣勞基法第幾條關於加班費的規定,在 2023 年的修正版本中是如何規範的?」透過提供具體的法條編號、年份,讓 AI 有更精確的回答方向。
資料來源:《台灣AI大未來》,商業周刊;《思辨,從問對問題開始》,商業周刊
核稿編輯:王宥筑