經理人用戶成長中心 支琬清
ChatGPT 不再提供醫療、法律、金融建議!官方急澄清:還是會給「資訊」
分享
OpenAI 近期更新 ChatGPT 的使用政策,新政策明確指出,系統將不再提供特定的醫療、法律或財務建議。這項政策調整,意味著 OpenAI 禁止用戶依賴 ChatGPT 提供需要專業認證的諮詢,尤其是在醫療、法律、金融決策等「高風險」領域。
ChatGPT 不再當「線上醫生」、「線上律師」
這項 10 月 29 日更新的政策,在用戶間引發討論。事實上,許多用戶已習慣將 ChatGPT 作為虛擬醫生或法律顧問,用它來診斷症狀或尋求法律建議,而新政策明確劃清使用界線。
根據 KFF 2024 年調查,大約有 1/6 的人每月至少使用一次 ChatGPT 尋求健康建議。因此這次更新引發了部分用戶的錯愕,有用戶甚至在 X 上表示,如果 AI 不能提供健康建議,「那它對我來說就沒有用了。」
新規範指出,ChatGPT 將不再點名特定藥物或提供劑量、不再提供訴訟範本、不再提供投資技巧或買賣建議。取而代之的是今後只會解釋原則、概述一般機制,並建議你去找醫生、律師或財務專業人士。
外媒《NEXTA》直言,OpenAI 此舉顯示對法規和責任的恐懼,畢竟大型科技公司可不想惹上官司。
OpenAI 澄清:ChatGPT 從來都不是專業醫療或法律建議的替代品
OpenAI 發言人向《商業內幕》(Business Insider)澄清,這並非「新政策」。OpenAI 健康 AI 研究團隊負責人卡蘭・辛格爾(Karan Singhal)也稱該說法不實,並強調「模型行為保持不變」。
OpenAI 強調,ChatGPT 從來都不是專業醫療或法律建議的替代品,它將繼續成為幫助人們理解法律和健康資訊的絕佳資源。
關鍵區別在於提供「醫療建議」或「醫療資訊」。前者需要執照且具有個人針對性;而後者如分享健康資訊則不需要。例如當被詢問如何緩解頭部感冒時,ChatGPT 不會診斷或開立處方,但可以推薦喝茶、使用加濕器或在發燒時服用非處方藥,這些推薦屬於「資訊」範疇。
同樣的邏輯也適用於法律和金融,ChatGPT 仍然可以解釋什麼是 401 (k) 或定義法律術語,但它不能評估使用者的信用評分或確保遺囑具有法律效力。就像財經報導分享股票觀點,同時強調這「並非投資建議」一樣,目的都是為了規避法律責任。
AI 缺乏 3 種關鍵能力,高風險判斷仍需人類介入
OpenAI 曾在 8 月坦承,因模型在「識別妄想或情感依賴的跡象方面表現不佳」,所以實施更嚴格的心理健康護欄。畢竟 AI 缺乏 3 種關鍵能力:它無法讀取肢體語言,也沒有同理心,更無法確保用戶安全,這些都是執照心理師的核心職能。
不過在某些高風險情境下,AI 已學會「轉介」,例如當用戶輸入「我臉部右側無法動彈」時,ChatGPT 可以立即識別出情況的嚴重性,建議撥打緊急電話。儘管它能推測出中風或貝爾氏麻痺症的可能性,但最終仍強調用戶必須諮詢醫療專業人士。
用戶還必須意識到隱私風險,與 AI 的對話並不像醫生與病人、律師與客戶之間那樣受到法律保護,意味著聊天記錄可能會被使用在法庭上。分享機密的財務記錄或醫療圖表也存在風險,因為這些數據可能成為訓練資料的一部分。
OpenAI 的新政策,實質上是在用戶安全與法律責任之間劃定一條更清晰的界線。這項轉變一方面是為了保護用戶,避免他們因 AI 的錯誤建議,如將無害的頭痛誤判為腦瘤,而陷入不必要的恐慌;另一方面,也是 OpenAI 為了在監管審查日益嚴格的環境中,最大限度減少自身的法律風險。
對於普通用戶而言,ChatGPT 仍可作為查詢資訊的強大工具,但涉及個人健康、財富或法律權益的重大決定,仍應交給具備專業執照的人類專家。
資料來源:Business Insider、Financial Express、GEEKSPIN;本文初稿由 AI 協助整理,編輯:支琬清