撰文 李岱君

「邊緣 AI」是什麼?DeepSeek 崛起,為何帶動商機大爆發?


中國科技公司 DeepSeek 最新的 R1 模型一出,無疑是對科技業投下震撼彈,標榜不到 600 萬美元的訓練成本,就造出媲美 OpenAI 性能的大型語言模型,動搖了「開發頂級 AI 必須仰賴高階晶片」的傳統認知。
然而,DeepSeek 帶來的影響遠不止於此。當運算成本不再高不可攀,AI 模型能夠在一般設備上運行,過去被視為明日之星的 邊緣 AI(Edge AI) ,是否終於迎來規模化商轉的關鍵時刻?
「邊緣 AI」是什麼?為何過去難實現?
所謂的邊緣 AI,就是 把 AI 的運算能力部署到終端設備上,讓 AI 模型能夠在本地進行資料處理和決策,而不需要依賴雲端運算。 例如你自己的電腦已安裝 AI 模型,即使不連上網路使用 ChatGPT,也能進行即時的 AI 對話,且所有的運算跟數據都在自己的電腦,不用上雲端,這也是 AI PC(AI 筆電)的概念。
這幾年,邊緣 AI 的討論似是雷聲大雨點小。關鍵原因在於,過去技術還沒跟上,沒辦法真正大規模應用。首先,AI 模型本身就很大,運算需求高。以前的大型語言模型動輒幾十億參數,需要強大算力支撐,可手機、筆電這些邊緣設備根本吃不消。
其次,數據傳輸也是個大問題。為了繞過算力瓶頸,很多應用把數據傳到雲端處理,但這會帶來網速慢、延遲高的問題。像自動駕駛、工業控制這些講究即時反應的場景,根本不能等雲端處理完再回傳結果。
再來是隱私和安全問題。把用戶數據集中存放在雲端,難保不會有資料外洩風險。現在大家愈來愈重視數據安全,很多企業開始推崇「數據不出邊緣」,也就是在本地設備上處理數據,而不是全部傳到雲端。
最後,AI 模型的訓練需要大量數據和算力,這對企業來說是個沉重負擔。尤其是中小企業,光是訓練一個高品質模型的成本就讓人卻步,讓邊緣 AI 一直難以真正起飛。 也因為這些技術瓶頸,過去邊緣 AI 大多停留在概念階段,距離大規模應用還有很長的路要走。再加上長期以來大家習慣依賴雲端,導致業界推動變革的速度也比較慢。
DeepSeek 效應:重新定義 AI 發展路徑
而 DeepSeek 的技術創新,正是邊緣 AI 發展困境的破局點。《華爾街日報》(The Wall Street Journal)分析,DeepSeek 採用的「混合專家模型」(mixture of experts,簡稱 MoE)堪稱革命性突破。它不是用一個龐大的 AI 模型去解決所有問題,而是拆分成多個專精不同領域的小型模型來處理任務,然後再由一個「總指揮」來整合產出結果。這種設計大幅降低了運算需求,讓 AI 可以在一般規格的設備上跑起來,而不需要昂貴的高性能硬體。
市場研究諮詢公司《Forrester》指出,DeepSeek 的模型可以在普通筆電上運作,雖然速度不如高端設備,但已可以支援許多應用。例如醫療照護,醫療設備能在地端處理影像診斷,減少數據傳輸風險,保護病患隱私。
混合專家模型同時也解決了邊緣 AI 長期以來的兩大痛點:一、成本問題,企業不需要砸大錢建置運算中心,或支付高昂的雲端服務費;二、效能限制:改良後的模型讓一般設備也能跑 AI,不再受限於昂貴的硬體。
邊緣 AI 起飛,誰能賺到這波紅利?
對於硬體產業來說,邊緣 AI 的發展意味著傳統高性能 AI 晶片的需求可能減少,但這並不代表市場機會的消失,反而創造了新的成長空間。為了讓 AI 應用更接近使用端,企業對於小型化、低功耗的專用晶片的需求日益增加。華碩(ASUS)和惠普(HP)等大廠已推出搭載最新 AI 處理器的個人電腦,這種趨勢讓傳統晶片大廠如英特爾(Intel)有機會重返 AI 市場,以適應這股去中心化運算的浪潮。
同時,邊緣 AI 的崛起也帶動了軟體服務模式改變。工業電腦製造商不再侷限於硬體銷售,而是開始提供「AI 效能訂閱制」服務,可以根據實際需求,選擇不同等級的 AI 運算能力,大幅降低導入 AI 的門檻。
在這場產業重組中,真正決定競爭優勢的關鍵不僅是硬體或軟體,而是兩者的整合能力。企業要在邊緣 AI 時代取得領先地位,必須具備將硬體設計、AI 模型優化與應用開發結合的能力。例如,工業用電腦廠商研華科技,正在打造生成式 AI 計算平台,希望能夠讓中小企業在沒有高硬體成本的情況下進行 AI 大型語言模型的運算。
此外,在開發邊緣 AI 時,更必須確保 AI 模型的可靠性和準確性。因為當 AI 模型被部署到終端設備時,如果無法解決 AI 容易產生幻覺(即產生不準確或虛構的答案)的問題,那麼即時運算和本地部署的優勢都將大打折扣。
資料來源:CNBC、Forrester、Morgan Stanley、Social Europe、WSJ(1)(2)、WeForum、DataCenter Frontier、IBM
核稿編輯:王宥筑