2026 年初,開源社群與科技巨頭的 AI 競爭進入關鍵階段。本週焦點涵蓋醫療專用大模型、音視頻生成技術、邊緣運算架構,以及開發者工具的重大更新。以下整理螞蟻集團、LightricksLiquid AIAnthropic 等機構的最新進展,協助讀者掌握 AI 模型與技術發展的核心脈絡。


本週重點速覽

AI 模型/技術項目 開發機構 核心亮點 相關連結
AntAngelMed 螞蟻集團 & 浙江衛健中心 千億參數開源醫療模型,採用 MoE 架構 GitHub
LTX-2 Lightricks 開源音視頻聯合生成,支援原生 50 幀 4K 影片 官網
NESCO 14B NuResearch(基於 Qwen 3) 競賽級編程模型,強化學習訓練 Qwen
LFM 2.5 Liquid AI 邊緣設備專用,涵蓋語言、視覺、語音五版本 官網
Claude Code Desktop Anthropic 桌面版預覽,支援本地開發環境與並行對話 官網
Dflash ZLab(浙江實驗室) 加速框架,Qwen 3 上實現 6 倍無損加速 官網

醫療 AI 的開源里程碑:AntAngelMed

螞蟻集團與浙江衛健中心聯合發布 AntAngelMed 醫療大模型。該模型採用 MoE(Mixture of Experts)架構,參數規模達千億級別,在國內外權威醫療評測中取得領先成績。

MoE 架構的核心優勢在於計算效率。傳統密集模型在推理時需啟動所有參數,MoE 則僅啟動與當前任務相關的「專家」子網路,大幅降低運算成本。以 AntAngelMed 為例,儘管總參數量龐大,實際推理時僅調用約 10-20% 的參數,這使其在處理複雜醫療諮詢時,能兼顧精準度與響應速度。

AI 醫療領域的應用場景包括診斷輔助、病歷分析、藥物交互作用查詢等。AntAngelMed 的開源策略,降低了醫療機構導入 AI 的技術門檻,同時也為學術研究提供可驗證的基準模型。


音視頻生成的新標竿:Lightricks LTX-2

創意軟體開發商 Lightricks 正式開源 LTX-2 音視頻聯合生成模型。該模型支援原生 50 幀影片生成,單次輸出時長可達 20 秒,並實現視覺動作與音頻的同步生成。

對內容創作者而言,LTX-2 的技術意義在於簡化後製流程。傳統影片製作需先完成視覺素材,再進行配音與音效處理,兩者分離導致同步調整耗時。LTX-2 採用聯合生成架構,在單一推理過程中同時產出畫面與聲音,確保動作節奏與音頻節拍的一致性。

Alibaba Wan 2.2 等競爭方案相比,LTX-2 的開源定位使其更適合獨立開發者與中小型工作室導入。商業用戶可依據自身需求進行模型微調,建立符合品牌調性的影音生成流程。


開發者工具的多元進化

編程模型:NESCO 14B 與 Qwen 3 生態

NuResearch 基於 Qwen 3(千問三)架構推出 NESCO 14B 編程模型。該模型經過深度強化學習訓練,在 LiveCodeBench 等測試中,代碼生成準確率較前代提升約 15%。

強化學習應用於編程模型的關鍵,在於建立明確的獎懲機制。NESCO 14B 的訓練過程中,模型針對編譯成功、測試通過、執行效率等指標獲得反饋,逐步學習產出符合工程標準的代碼。這與傳統監督學習僅依賴人工標註數據的方式有本質差異。

對於需要 AI 編碼工具的開發團隊,NESCO 14B 可作為代碼審查與自動補全的輔助引擎,搭配現有 IDE 整合使用。

邊緣運算:Liquid AI LFM 2.5 系列

Liquid AI 推出 LFM 2.5 系列模型,專為邊緣設備設計。該系列涵蓋語言、視覺、語音等五個版本,支援多種推理框架部署。

邊緣運算的核心需求是低延遲與隱私保護。LFM 2.5 透過模型壓縮與量化技術,將推理運算從雲端轉移至本地設備,數據無需上傳即可完成處理。適用場景包括智慧家居、工業物聯網、車載系統等對響應速度與數據安全有嚴格要求的領域。

根據 Liquid AI 公布的基準測試,LFM 2.5 在主流手機晶片上的推理延遲約為 50-100 毫秒,相較於雲端 API 呼叫節省約 200-500 毫秒的網路往返時間。

Claude 生態擴展:桌面版與 Obsidian 整合

Anthropic 在桌面應用中推出 Claude Code 預覽版,提供原生交互環境並支援本地開發工具調用。開發者可直接在桌面環境中執行代碼、調用終端指令,無需切換至瀏覽器介面。

同時,Obsidian CEO 開源了 Claude Skills 插件,增強 Claude Code 對 Obsidian 文檔的編輯能力。該插件支援 Markdown 及 JSON Canvas 格式,讓知識管理與代碼開發可在同一環境中無縫銜接。

這項整合對於採用 Obsidian 作為知識庫的開發者尤其實用。技術文件、API 規格、專案筆記等內容,可直接透過 Claude Code 進行查詢、修改與擴展,減少工具切換的認知負擔。


推理加速與架構優化

Cursor 動態上下文技術

代碼編輯器 Cursor 推出「動態上下文發現技術」,解決長代碼庫導致的上下文窗口溢出問題。系統能按需自動提取相關上下文,Token 消耗降低約 47%,同時維持回覆品質。

大型專案中,代碼檔案數量可達數千甚至上萬。若將所有檔案內容載入 AI 模型的上下文窗口,不僅超出 Token 限制,也會稀釋核心資訊的權重。Cursor 的解決方案是建立語義索引,僅在需要時動態載入相關程式碼片段,類似資料庫的按需查詢機制。

ZLab Dflash 加速框架

浙江實驗室(ZLab)發布 Dflash 加速框架,透過並行草稿預測技術,在 Qwen 3 模型上實現超過 6 倍的無損加速。解碼速度領先同類方案約 40%。

草稿預測(Speculative Decoding)的原理是使用小型模型快速產生候選輸出,再由大型模型驗證。若候選輸出正確,大型模型僅需確認而非重新生成,大幅縮短推理時間。Dflash 的創新在於並行化這一流程,進一步壓縮驗證階段的延遲。

vLLM Iris 版本

推論庫 vLLM 發布智能路由 Iris 版本,支援模型自動選擇、安全過濾與幻覺檢測。Iris 作為用戶與模型間的中介層,可根據查詢類型動態分配至最適合的模型實例,同時在回覆中標註可信度評估。

對於部署多個 LLM 的企業而言,Iris 降低了模型調度的複雜度。開發者無需手動設計路由邏輯,系統會依據歷史數據與即時負載自動優化分配策略。


硬體競爭與行業動態

晶片市場三強對峙

NVIDIA 推出基於 Blackwell 架構的桌面級 AI 算力卡,瞄準本地推理與開發測試場景。AMD 發布旗艦加速卡 MI355X,強調性價比與開放生態。Intel 與 Qualcomm(高通)分別發布採用先進製程的 PC 處理器,全面提升端側 NPU 算力。

三家廠商的策略各有側重。NVIDIA 維持軟硬體整合的封閉生態,依賴 CUDA 的開發者黏性;AMD 推動 ROCm 開源框架,吸引價格敏感型客戶;Intel 與 Qualcomm 則專注於 AI PC 市場,將推理能力內建於消費級處理器中。

對於 AI 工廠與數據中心的採購決策者,這波硬體更新提供更多選擇彈性。根據工作負載特性(訓練為主或推理為主)、軟體相容性需求、預算規模等因素,可選擇不同廠商的解決方案。

融資與評估動態

Elon Musk 旗下 xAI 完成約 NTD 6,400 億(USD 200 億)融資,資金將用於擴建算力基礎設施與訓練下一代 Grok 模型。這筆融資規模創下 AI 新創單輪募資紀錄。

LMSYS Chatbot Arena 也宣布完成種子輪融資,致力於提供獨立透明的 AI 評估框架。該平台以盲測方式讓用戶評比不同模型的回覆品質,累積的投票數據成為業界參考的重要基準。

神秘模型 Gfish 現身

新型圖像模型 Gfish 在測試平台亮相,展現複雜指令理解與繪圖能力。社群推測該模型可能來自智譜(Zhipu)團隊,但目前尚無官方確認。Gfish 在多輪對話生成圖像的場景中表現突出,能夠維持角色一致性與風格穩定性。

OpenAI 人事異動

OpenAI 研發副總裁暨推理模型負責人 Jerry Tworek 宣布離職。同時,Lexica 創始人加入 OpenAI,預期將參與圖像生成相關業務。官方也澄清近期流傳的 Codex 模型標識為文字錯誤,並非新產品預告。


作者觀點

本週的技術動態反映出 AI 產業的三個結構性趨勢。首先,垂直領域專用模型(如醫療、編程)正逐步取代通用模型成為實際部署的主力,這意味著企業導入 AI 時需更精確評估場景匹配度。其次,開源與商業化的界線持續模糊,開源模型不再只是學術研究工具,而是企業降低技術風險與供應商依賴的策略選項。最後,邊緣運算的成熟將改變 AI 服務的架構設計,從「雲端優先」轉向「雲端與邊緣協作」的混合模式。

對於正在規劃 AI 導入策略的企業,建議優先釐清核心需求(延遲敏感度、數據隱私要求、可控性程度),再據此選擇雲端服務、開源自建或邊緣部署等路徑。技術選型不應追逐最新發布,而應評估長期維護成本與生態成熟度。


作者:Tenten Research Team

若您的企業正在評估 AI 技術導入策略,或需要針對特定場景進行模型選型與架構規劃,歡迎預約諮詢,與 Tenten 團隊討論最適合的解決方案。

Share this post
Annie Yeh

AI & Data Science Decoded: Join my journey of AI/ LLM. Let's grow our tech skills together! #AILearners #FashionAI

Loading...