用戶發展中心
AI員工竟愈幫愈忙!該怎麼防止OpenClaw「龍蝦大軍」好心辦傻事?
分享
AI 不只會聊天,現在還可能開始「上班」。
過去幾年爆紅的生成式 AI,比較像一位聰明但被動的顧問:你問它答,幫你寫報告、整理資料。但現在科技圈開始流行一種新的 AI 型態—代理式 AI(Agentic AI)。這種 AI 不只是回答問題,而是能自行拆解任務、搜尋資料、操作系統,甚至完成整個工作流程。
輝達(NVIDIA)執行長黃仁勳最近就形容這類技術可能是「下一個 ChatGPT」。
而輝達推出的企業級AI 代理平台 NemoClaw,更被業界戲稱為「西裝龍蝦」,正是為了解決當紅開源軟體 OpenClaw(野生龍蝦)目前「難安裝」與「不安全」的痛點,象徵 AI 代理正從工程師的玩具,逐漸變成企業營運的新基礎設施。
不下班的龍蝦員工已經上工
安侯企業管理董事總經理謝昀澤表示,代理式 AI 最吸引企業的地方,在於它結合了兩種能力:機器人流程自動化(RPA)的自動化執行力,加上大型語言模型(LLM)的理解能力。因此 AI 不只是回答問題,而是可以自己完成整個任務流程。
他透露,近期有台灣信用卡服務業者,由代理式AI自動完成客戶機場接送服務的預訂與支付。消費者透過對話介面向代理式AI提出機場接送需求,並提供出發地點、目的地、搭乘時間及乘車人數等資訊後,代理式AI隨即媒合機場接送服務供應商提供推薦方案,待消費者選定方案後,代理式AI以消費者綁定的信用卡卡完成預訂與支付。
代理式AI,也可應用於供應鏈的發票與訂單核對流程。過去的自動化流程一旦遇到掃描 PDF、手寫單據或系統介面更新,就會停擺。
但代理式 AI 可以自動讀取郵件附件、提取資料,再登入 ERP 系統比對。如果發現金額異常,它甚至能整理原因並生成報告交由財務確認。
謝昀澤強調,對企業而言,這些「龍蝦員工」幾乎可以 24 小時不間斷工作。舉凡具備「全天候、跨系統、高頻率、大數據」特性的企業任務,特別是客服互動、內部行政流程、資料整理與等低風險工作,都可能成為 AI 龍蝦優先上工的領域。
好心辦傻事的雞婆風險
然而,謝昀澤也提醒,龍蝦越聰明,闖禍的本事也越大。近期美團APP被發現偷刪用戶手機照片,就是因為應用程式的授權過大所導致,而可能擁有更大授權的代理式AI,甚至已經出現 AI 為了幫主人買滑鼠,結果擅自刷卡升級整套電競設備;或因為誤判任務,主動刪除老闆的重要郵件。
當 AI 開始能操作系統與付款工具,這些「好心辦傻事」的案例就不再只是笑話,而可能變成企業營運風險。
他進一步指出,目前最新的龍蝦工具仍不夠成熟,任務的失敗率或不穩定性極高。以台灣地區網路訂購各種票証為例,實際操作常卡在「人機驗證機制」,例如辨識圖片或輸入扭曲文字,這些設計原本就是用來防止機器人操作、登入流程、網頁變動與付款安全等環節,任務流程一長就容易失敗。
謝昀澤形容,目前代理式AI的技術仍像「聰明但經驗不足的實習生」:懂任務卻不一定穩定完成。未來若各商業網站開放標準 API、工具更成熟,AI 才可能真正成為可靠的數位員工。
不是每家公司都適合「養蝦」
謝昀澤強調,並非所有企業都適合立刻導入代理式 AI,養蝦圈的名言是:「養蝦不怕累,就怕規則不明確。」
就如養真龍蝦最重要的是水質與溶氧量,企業導入 AI 代理也需要三個良好的基礎環境條件:
1.具備生成式 AI 成熟使用經驗
2.數據品質與資安治理良好
3.企業流程具備清楚的 SOP
他認為,如果企業內部的規定朝令夕改、充滿人類的模糊地帶(混濁的水),或是數據庫裡充滿錯誤資訊、木馬程式與病毒流竄(毒素),AI 龍蝦不僅無法順利運作,還會高效率地把錯誤放大。
若企業缺乏標準化流程且資訊環境脆弱,強行養蝦恐將演變成一場大型災難。
養 AI 龍蝦的三個安全原則
為了避免「龍蝦員工」變成企業的資安破口,謝昀澤提出三項企業必須建立的基本治理原則:
第一,建立隔離環境:
如同養殖者必須準備堅固的水族箱與「防逃網」以防止龍蝦越獄破壞環境,企業必須利用沙盒(Sandbox)技術與虛擬機,將 AI 代理隔離在特定的工作區域內。同時,建立嚴格的 API 閘道器,徹底防堵駭客的提示詞注入攻擊,並攔截任何企圖將機密送往外部大模型的異常連線。
第二,設定行為護欄:
原則很簡單:「要限權,不碰錢;人要在,防作怪。」AI 可以提出建議,但關鍵決策必須由人類確認。
第三,建立緊急斷線機制:
企業必須持續監控 AI 行為,一旦出現異常能立即啟動緊急煞車機制停止系統。
誰能管好AI,誰就贏得未來
謝昀澤提醒,從被動的生成式 AI,到主動的代理式 AI,這場變革的規模可能不亞於網際網路的誕生。根據多家科技研究機構預測,未來五年內企業內部將出現大量代理式AI的數位員工,數量甚至可能超過人類員工。因此未來企業的問題不再是「要不要養龍蝦?」,而是「能否安全有效的駕馭AI數位大軍」。
核稿編輯:陳書榕