4 月 9 日凌晨,Agentica 團隊攜手 Together AI 聯(lián)合開源了名為 DeepCoder-14B-Preview 的代碼推理模型,**這個僅需 14B 即可媲美 OpenAI o3-Mini 的新模型迅速引起業(yè)界廣泛關注,**在 GitHub 狂攬 3k stars。
具體而言,DeepCoder-14B-Preview 是一款基于 DeepSeek-R1-Distilled-Qwen-14B 進行微調的代碼推理 LLM,使用分布式強化學習 (RL) 擴展上下文長度。**該模型在 LiveCodeBench v5 (8/1/24-2/1/25) 上實現(xiàn)了 60.6% 的單次通過率 (Pass@1),**不僅超越了其基礎模型,并且僅憑 140 億參數就達到了與 OpenAI o3-mini 相當的性能。
目前「一鍵部署 DeepCoder-14B-Preview」教程已上線至 HyperAI超神經官網的教程板塊中,模型克隆完成后進入「API 地址」即可快速體驗模型!
**教程鏈接:**https://go.hyper.ai/0J82f
Demo 運行
1. 登錄 hyper.ai,在「教程」頁面,選擇「一鍵部署 DeepCoder-14B-Preview」,點擊「在線運行此教程」。
2. 頁面跳轉后,點擊右上角「克隆」,將該教程克隆至自己的容器中。
3.選擇「NVIDIA GeForce RTX 4090」以及「vLLM」鏡像,OpenBayes 平臺提供了 4 種計費方式,大家可以按照需求選擇「按量付費」或「包日/周/月」,點擊「繼續(xù)執(zhí)行」。新用戶使用下方邀請鏈接注冊,可獲得 4 小時 RTX 4090 + 5 小時 CPU 的免費時長!
HyperAI超神經專屬邀請鏈接(直接復制到瀏覽器打開):
https://openbayes.com/console/signup?r=Ada0322_NR0n
4.等待分配資源,首次克隆需等待 2 分鐘左右的時間。當狀態(tài)變?yōu)椤高\行中」后,點擊「API 地址」旁邊的跳轉箭頭,即可跳轉至 Demo 頁面。請注意,用戶需在實名認證后才能使用 API 地址訪問功能。
效果展示
進入 Demo 頁面后即可體驗模型。本教程以 DeepCoder-14B-Preview 模型為演示案例,采用 bitsandbytes 提供的 8-bit 量化方法來優(yōu)化顯存占用。
在「input」欄中輸入內容,點擊「Submit」生成。點擊「Clear History」可清除對話記錄。
此處以經典的冒泡排序為例,可以看到模型很快地對問題做出了答復。