久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁(yè) > 業(yè)界動(dòng)態(tài) > 周年回顧|DeepSeek如何改變開(kāi)源AI

周年回顧|DeepSeek如何改變開(kāi)源AI

作者: 時(shí)間:2026-01-22 來(lái)源: 收藏

R1發(fā)布一周年之際,讓我們一起來(lái)回顧究竟是如何改變了 —— R1并不是當(dāng)時(shí)最強(qiáng)的模型,真正意義而在于它如何降低了三重壁壘。

i. 技術(shù)壁壘:通過(guò)公開(kāi)分享其推理路徑和后訓(xùn)練方法,R1將曾經(jīng)封閉在API背后的高級(jí)推理能力,轉(zhuǎn)變?yōu)榭上螺d、可蒸餾、可微調(diào)的工程資產(chǎn),推理開(kāi)始表現(xiàn)得像一個(gè)可復(fù)用的模塊,在不同的系統(tǒng)中反復(fù)應(yīng)用。這也推動(dòng)行業(yè)重新思考模型能力與計(jì)算成本之間的關(guān)系,這種轉(zhuǎn)變?cè)谥袊?guó)這樣算力受限的環(huán)境中尤為有意義。

ii. 采用壁壘:R1以MIT許可證發(fā)布,使其使用、修改和再分發(fā)變得簡(jiǎn)單直接。隨著分發(fā)限制的解除,模型迅速擴(kuò)散到云平臺(tái)和工具鏈中,R1超越了研究產(chǎn)物的范疇,成為了可復(fù)用的工程基礎(chǔ)。原本依賴(lài)閉源模型的公司開(kāi)始直接將R1投入生產(chǎn),蒸餾、二次訓(xùn)練和領(lǐng)域適應(yīng)變成了常規(guī)的工程工作,而非特殊項(xiàng)目。

iii. 心理壁壘:當(dāng)問(wèn)題從“我們能做這個(gè)嗎?”轉(zhuǎn)變?yōu)椤拔覀內(nèi)绾巫龊眠@個(gè)?”時(shí),許多公司的決策都發(fā)生了變化。對(duì)中國(guó)社區(qū)而言,這也是一個(gè)難得的、獲得全球持續(xù)關(guān)注的時(shí)刻,對(duì)于一個(gè)長(zhǎng)期被視為跟隨者的生態(tài)系統(tǒng)來(lái)說(shuō),這一點(diǎn)至關(guān)重要。

640-6.jpeg

2025年1月20日,-R1正式發(fā)布。從此,國(guó)產(chǎn)大模型第一次走到了全球舞臺(tái)的核心位置,開(kāi)啟了時(shí)代。

DeepSeek-R1的關(guān)鍵突破

從技術(shù)上看,DeepSeek-R1的關(guān)鍵突破,并不在某一個(gè)單點(diǎn)技巧,而在一整套系統(tǒng)性設(shè)計(jì)。在傳統(tǒng)SFT/RLHF體系中,最終答案的「正確性」是唯一目標(biāo)。R1則引入了更細(xì)粒度的信號(hào)。這也是第一次,模型高密度推理數(shù)據(jù),而非高密度知識(shí)R1的訓(xùn)練數(shù)據(jù),不追求百科全書(shū)式的覆蓋,而是高度聚焦在數(shù)學(xué)與邏輯推導(dǎo)、可驗(yàn)證的復(fù)雜任務(wù)。因此,R1才在數(shù)學(xué)、代碼、復(fù)雜推理上,呈現(xiàn)出跨尺度的躍遷。

R1證明了在推理維度,模型不是追隨者,而可以成為范式定義者。同時(shí),改變了工程師與模型的協(xié)作方式,當(dāng)模型開(kāi)始“展示思路”,人類(lèi)就不再是提問(wèn)者而是合作者。

回到今天R1仍然是一條未走完的路,一周年并不是終點(diǎn),推理能力還有明顯上限,長(zhǎng)鏈路思考仍然昂貴。但正如R1做出的選擇一樣,真正重要的不是已經(jīng)解決了什么,而是方向是否正確。

這一年只是序章

在前兩天的深夜,DeepSeek的一個(gè)存儲(chǔ)庫(kù)進(jìn)行了更新,引用了一個(gè)全新的「model 1」模型。DeepSeek-R1的故事還在繼續(xù) —— 在DeepSeek-R1發(fā)布一周年之際,核心算法庫(kù)驚現(xiàn)model 1,是V4還是R2?

而這個(gè)model 1極有可能就是R2。在DeepSeek的開(kāi)源項(xiàng)目FlashMLA庫(kù)代碼片段明確引用了model 1,并且伴隨針對(duì)KV緩存的新優(yōu)化,和576B步幅的稀疏FP8解碼支持。FlashMLA是DeepSeek的優(yōu)化注意力內(nèi)核庫(kù),為DeepSeek-V3和DeepSeek-V3.2-Exp模型提供支持。

IMG_7E316253C01F-1.jpeg

FlashMLA是DeepSeek為Hopper架構(gòu)GPU(如H800)優(yōu)化的MLA(Multi-head Latent Attention)解碼內(nèi)核。在推理層代碼中提及新模型ID,往往意味著該新模型將繼續(xù)復(fù)用或改進(jìn)現(xiàn)有的MLA架構(gòu),而項(xiàng)目里大約有28處提到model 1,這可以被解讀為新模型即將發(fā)布的明確信號(hào)。并且巧的是,這個(gè)爆料正好趕在DeepSeek-R1發(fā)布一周年(2025年1月20日)。

R1作為開(kāi)源推理模型,曾匹敵Open o1并登頂iOS App Store,此后徹底改變了開(kāi)源AI社區(qū)。model 1即便不是R2也意義非凡,畢竟FlashMLA是DeepSeek優(yōu)化的注意力核心算法庫(kù)。

不過(guò),DeepSeek之前的確遇到了一些麻煩,在研發(fā)其新一代旗艦?zāi)P蜁r(shí),遇到算力問(wèn)題。但DeepSeek及時(shí)調(diào)整了策略,準(zhǔn)備在“未來(lái)幾周內(nèi)”推出這款新模型。


關(guān)鍵詞: DeepSeek 開(kāi)源 AI

評(píng)論


相關(guān)推薦

技術(shù)專(zhuān)區(qū)

關(guān)閉