還記得 2023 年那場震撼科技圈的人事變動嗎?當時短暫接任 OpenAI CEO 的 Mira Murati,如今帶著更大的野心回到 AI 戰場。這位 36 歲的阿爾巴尼亞裔美籍工程師,在離開 OpenAI 後立刻創辦了 Thinking Machines Lab,並在今年 7 月就拿到了史上最高的種子輪融資——20 億美金,估值直接飆到 120 億美金。
10 月 1 日,他們終於丟出第一顆震撼彈:Tinker。這不是又一個聊天機器人,而是一個專為開發者和研究人員打造的 Python API,目標只有一個——徹底顛覆大型語言模型(LLM)的微調方式。
為什麼 AI 研究員需要 Tinker?
如果你曾經嘗試微調過 LLM,就會知道這有多痛苦。要嘛用黑箱服務完全沒控制權,要嘛自己從零開始搞分散式運算,光是設定 GPU 叢集就夠你崩潰一整週。傳統的訓練流程讓許多有才華的研究員卡在基礎設施的泥沼中,無法專注在真正重要的演算法創新上。
Tinker 提供了第三條路:在你的筆電上用純 Python 程式碼寫訓練迴圈,然後丟到他們的分散式 GPU 叢集上跑。聽起來簡單,但魔鬼藏在細節裡。

Tinker 的核心優勢
| 功能特點 | 說明 |
|---|---|
| 低階控制 | 提供 forward_backward 和 sample 等原語,精準控制 loss function 和 training loop |
| 無痛分散式 | 自動處理排程、資源分配、錯誤恢復等基礎設施管理 |
| 模型彈性 | 支援從小型模型到 Qwen-235B-A22B 等超大型混合專家模型 |
| 成本優化 | 採用 LoRA 技術,多個訓練任務共享 GPU 池 |
| 開源資源 | 附帶 Tinker Cookbook 現代化實作範例 |
更狠的是,切換不同規模的模型只需要改一行 Python 程式碼。這種設計哲學完全是為了讓研究員專注在「修修補補」(tinkering)演算法和數據上,而不是被運算資源搞到焦頭爛額。
頂尖實驗室已經在用 Tinker 做什麼?
別以為這只是個概念產品。Stanford、Princeton、Berkeley 等世界頂尖學府的實驗室已經在用 Tinker 進行前沿研究了:
| 研究機構 | 應用場景 |
|---|---|
| Princeton Goedel Team | 訓練數學定理證明器,挑戰形式邏輯的極限 |
| Stanford Rotskoff Chemistry Group | 針對化學推理任務進行模型微調 |
| Berkeley SkyRL Group | 開發多代理、多輪工具使用的非同步 off-policy RL 訓練迴圈 |
| Redwood Research | 在高難度 AI 控制任務上對 Qwen3-32B 進行強化學習 |
Berkeley 的電腦科學博士生 Tyler Griggs 在測試後直言:「很多 RL 微調服務都是針對企業客戶,根本不讓你改訓練邏輯。Tinker 讓你真正專注在實驗環境、演算法和數據上,不用被運算資源搞到崩潰。」
從化學推理到定理證明,這些實際案例證明 Tinker 不只是玩具,而是能夠推動科學研究的生產力工具。
Andrej Karpathy:90/90 法則的完美實現
前 Tesla AI 總監、現任 OpenAI 研究員的 Andrej Karpathy 對 Tinker 給出了超高評價。他在社群媒體上表示:
「Tinker 讓你保留大約 90% 的演算法創造性控制權——數據、loss function、訓練演算法,同時把基礎設施、前向後向傳播、分散式訓練這些負擔外包出去。它把 LLM 後訓練的典型複雜度降到 10% 以下。」
Karpathy 還強調了一個常被忽略的事實:微調不只是風格調整,而是縮小任務範圍。當你有充足的訓練範例時,微調過的小模型可以跑得比用巨大 few-shot prompts 驅動的大模型更快、表現更好。
在實際生產環境中,LLM 應用越來越變成 DAG(有向無環圖)管線:有些步驟保持 prompt 驅動,但很多組件用微調模型效果更棒。而 Tinker 讓這些微調變得超級簡單,可以快速實驗不同的想法。
夢幻團隊:把 OpenAI 核心技術打包帶走
Thinking Machines Lab 的團隊陣容簡直豪華到離譜。除了 Mira Murati 本人,還包括:
- John Schulman:OpenAI 共同創辦人,強化學習專家
- Bob McGrew:前 OpenAI 研究總裁
- Lilian Weng:AI 安全領域的頂尖專家
- Andrey Mishchenko:專精預訓練推理
- Luke Metz:後訓練領域的權威
這根本就是把 OpenAI 的核心技術團隊打包帶走了。連 Mark Zuckerberg 都開出數十億美金想收購或挖角,都被 Murati 斷然拒絕。投資陣容更是星光熠熠:a16z、NVIDIA、Accel 等重量級玩家全數參與,顯示市場對這個團隊的超高期待。
Tinker Cookbook:讓研究民主化的開源武器
光有 API 還不夠,Thinking Machines Lab 還開源了 Tinker Cookbook,裡面有各種後訓練方法的現代化實作。這意味著你不用從零開始寫 boilerplate code,可以直接套用最佳實踐,專注在測試自己的想法上。
支援的功能包括:
- 監督式微調(Supervised Fine-Tuning, SFT):用標註數據訓練模型遵循特定行為
- 強化學習(Reinforcement Learning, RL):透過獎勵機制優化模型決策
- 小型到超大型模型支援:從實驗用的小模型到生產級的混合專家模型
- 主流模型相容:與 Meta Llama 和 Alibaba Qwen 等開放權重模型完全相容
對學術界和 AI 愛好者來說,這大幅降低了進入門檻。過去需要數週才能搭建的訓練環境,現在可能幾小時就能跑起來。
Thinker 對 AI 生態系統意味著什麼?
Tinker 的出現,不僅挑戰了 OpenAI、Google Vertex AI、Databricks 的 Mosaic AI 等大廠的微調服務,更重要的是它提供了一條不同的路線:更開放、更靈活,專為想要深入 AI 科學本質的人打造。
也對 Together AI 和 Fireworks.ai 這類專注高效訓練的平台構成競爭,但 Tinker 的目標明確——就是要讓研究員能夠實驗科學本身,而不只是插入數據按下「訓練」按鈕。
Murati 的願景很清楚:
「我們要把原本只有尖端實驗室才能做的事情,開放給所有人。外面有太多聰明人了,我們需要盡可能多的人參與到前沿 AI 研究中。」
Tinker 可能標誌著 AI 開發的下一個階段:從少數科技巨頭壟斷,轉向更民主化、更開放的研究環境。當工具變得更容易取得,創新的速度只會加快。
如何開始使用 Tinker?
Tinker 目前處於 Private Beta 階段,開放給研究員和開發者申請候補名單。最棒的是,目前完全免費。Thinking Machines Lab 表示會在未來幾週內引入基於使用量的定價模式,但現在就是最好的上車時機。
如果你是認真想在 AI 領域深耕的開發者或研究員,現在就該去申請。這可能是你離 AI 研究最前沿最近的一次機會。
個人觀點:工具民主化帶來的創新加速
作為一個每天都在跟 AI 工具奮鬥的開發者,Tinker 的推出讓我興奮不已。過去想要微調模型,要嘛就是用 OpenAI 的 API 但完全不知道裡面發生什麼事,要嘛就得自己從頭搭建分散式訓練環境——光是搞定 GPU 叢集就夠你喝一壺了。
Tinker 真正打動我的地方,是它在「控制權」和「便利性」之間找到了完美平衡。能夠用熟悉的 Python 語法精準控制訓練流程,同時又不用操心底層基礎設施,這根本就是開發者的夢想。
更重要的是,Murati 團隊選擇開源 Tinker Cookbook,這種開放的態度在當前 AI 產業越來越封閉的趨勢下,顯得格外珍貴。我相信這種工具的民主化,會帶來一波新的創新浪潮。當更多聰明人能夠參與 AI 研究,我們才能真正解決那些最困難、最有意義的問題。
AI 的未來不應該只掌握在少數科技巨頭手中,而 Tinker 正在把這個未來還給所有願意探索的人。
準備好迎接 AI 轉型了嗎?
無論您是想導入 AI 解決方案的企業,還是需要技術支援的新創團隊,Tenten 都能協助您在 AI 時代找到最適合的發展策略。我們提供從策略規劃、技術開發到系統整合的全方位數位轉型服務,幫助您的企業在快速變化的科技浪潮中保持競爭力。
立即與我們聯繫,讓專業團隊為您量身打造 AI 解決方案:預約諮詢
