久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁 > 智能計(jì)算 > 編輯觀點(diǎn) > 中國(guó)開源AI模型下載量首超美國(guó),DeepSeek再出手

中國(guó)開源AI模型下載量首超美國(guó),DeepSeek再出手

作者:陳玲麗 時(shí)間:2025-12-02 來源:電子產(chǎn)品世界 收藏

近日,一份來自麻省理工學(xué)院(MIT)與社區(qū)Hugging Face的聯(lián)合報(bào)告顯示:在剛剛過去的一年里,中國(guó)研發(fā)的人工智能模型在全球下載量中的占比達(dá)到了17.1%,歷史上首次超越了美國(guó)的15.8%。

640.png

圖(來源:Financial Times) | 每周開發(fā)者下載份額,紅色及粉色區(qū)域?yàn)橹袊?guó)模型

這項(xiàng)研究表明,在開放模型這一關(guān)鍵領(lǐng)域,中國(guó)企業(yè)正以其策略對(duì)美國(guó)公司過去主要依賴閉源模型所建立的競(jìng)爭(zhēng)優(yōu)勢(shì),已經(jīng)構(gòu)成了不可忽視的挑戰(zhàn)。和阿里巴巴的Qwen等中國(guó)模型,正憑借其獨(dú)特的開發(fā)與推廣模式,在全球開發(fā)者生態(tài)中獲得越來越大的影響力。

再上兩款新模型

12月1日晚,發(fā)布了兩個(gè)正式版開源模型:DeepSeek-V3.2和DeepSeek-V3.2 Speciale。目前,DeepSeek官方網(wǎng)頁端、App和API均已更新為正式版DeepSeek-V3.2,Speciale版本則僅以臨時(shí)API服務(wù)形式開放,以供社區(qū)評(píng)測(cè)與研究。

640.jpeg

據(jù)悉,DeepSeek-V3.2的目標(biāo)是平衡推理能力與輸出長(zhǎng)度,適合日常使用。在公開的推理類Benchmark測(cè)試中,DeepSeek-V3.2達(dá)到了GPT-5的水平,僅略低于Gemini-3.0 Pro;相比Kimi-K2 Thinking,V3.2的輸出長(zhǎng)度大幅降低,顯著減少了計(jì)算開銷與用戶等待時(shí)間。

DeepSeek-V3.2 Speciale的目標(biāo)是將開源模型的推理能力推向極致,探索模型能力的邊界,是DeepSeek-V3.2的長(zhǎng)思考增強(qiáng)版,同時(shí)結(jié)合了DeepSeek-Math-V2的定理證明能力。該模型具備出色的指令跟隨、嚴(yán)謹(jǐn)?shù)臄?shù)學(xué)證明與邏輯驗(yàn)證能力。

640-5.jpeg

兩款模型有著不同的定位:DeepSeek-V3.2推理能力與文本長(zhǎng)度兼顧,適合問答場(chǎng)景和通用智能體任務(wù)場(chǎng)景,DeepSeek-V3.2 Speciale則是此次的重頭戲,其目標(biāo)是“將開源模型的推理能力推向極致,探索模型能力的邊界”。

4項(xiàng)奧賽金牌級(jí)

在主流推理基準(zhǔn)測(cè)試上,DeepSeek-V3.2 Speciale的性能表現(xiàn)媲美Gemini-3.0 Pro。同時(shí),V3.2 Speciale模型成功斬獲 IMO 2025(國(guó)際數(shù)學(xué)奧林匹克)、CMO 2025(中國(guó)數(shù)學(xué)奧林匹克)、ICPC World Finals 2025(國(guó)際大學(xué)生程序設(shè)計(jì)競(jìng)賽全球總決賽)及 IOI 2025(國(guó)際信息學(xué)奧林匹克)4項(xiàng)金牌。其中,ICPC與IOI成績(jī)分別達(dá)到了人類選手第二名與第十名的水平。

640-4.png

DeepSeek-V3.2與其他模型在各類數(shù)學(xué)、代碼與通用領(lǐng)域評(píng)測(cè)集上的得分(括號(hào)內(nèi)為消耗Tokens估計(jì)總量)

Speciale在多個(gè)推理基準(zhǔn)測(cè)試中超越谷歌最先進(jìn)的Gemini-3.0 Pro。具體來看,在美國(guó)數(shù)學(xué)邀請(qǐng)賽、哈佛MIT數(shù)學(xué)競(jìng)賽、國(guó)際奧林匹克數(shù)學(xué)競(jìng)賽等測(cè)試中,V3.2 Speciale都超過了Gemini-3.0 Pro,但在編程、理工科博士生測(cè)試中略遜于谷歌。

DeepSeek V3.2進(jìn)化論

在之前的技術(shù)報(bào)告中,DeepSeek承認(rèn)與Gemini-3.0 Pro等前沿閉源模型相比,仍存在一定的局限性,通常需要更多的Token才能達(dá)到類似Gemini-3.0 Pro的輸出質(zhì)量,在解決復(fù)雜任務(wù)方面也不如前沿模型。DeepSeek稱計(jì)劃在未來通過增加預(yù)訓(xùn)練計(jì)算量來填補(bǔ)知識(shí)空白,并專注于優(yōu)化模型推理鏈的智能密度以提高效率,進(jìn)一步改進(jìn)基礎(chǔ)模型和訓(xùn)練后方案。

值得一提的是,DeepSeek還表示“閉源模型與開源模型之間的性能差距并未縮小,反而日益擴(kuò)大,專有系統(tǒng)在復(fù)雜任務(wù)中展現(xiàn)出越來越強(qiáng)的優(yōu)勢(shì)”。DeepSeek認(rèn)為推理模型的發(fā)布是發(fā)展的關(guān)鍵轉(zhuǎn)折點(diǎn),推動(dòng)了整體性能的大幅躍升。自這一里程碑事件以來,能力在快速發(fā)展,而過去幾個(gè)月中出現(xiàn)了明顯的分化,閉源專有模型如海外谷歌、Open、Anthropic的性能增長(zhǎng)速度顯著更快。

一方面,在架構(gòu)層面,對(duì)標(biāo)準(zhǔn)注意力機(jī)制的過度依賴嚴(yán)重制約了長(zhǎng)序列處理的效率;其次,在資源分配方面,開源模型在后訓(xùn)練階段的計(jì)算投入不足,限制了模型在高難度任務(wù)上的表現(xiàn);最后,在AI智能體領(lǐng)域,開源模型在泛化能力和指令遵循能力上與專業(yè)模型相比存在明顯差距,影響實(shí)際部署效果。

9月底,DeepSeek發(fā)布了實(shí)驗(yàn)版V3.2 Exp,此次DeepSeek V3.2是正式版更新。在架構(gòu)層面,V3.2沿用了Exp版本驗(yàn)證成功的稀疏注意力(DSA)架構(gòu),引入了「思維上下文管理」,解決了一個(gè)困擾AI界的頑疾“思考與行動(dòng)的斷裂”。

大多數(shù)推理模型像是一個(gè)記性不好的人:它會(huì)先花很長(zhǎng)時(shí)間思考,決定調(diào)用一個(gè)工具,但當(dāng)工具把結(jié)果扔回來時(shí),它往往會(huì)斷片兒,忘了剛才思考到哪一步了,不得不重新規(guī)劃。DeepSeek利用1800多個(gè)虛擬的操作系統(tǒng)、代碼庫和瀏覽器環(huán)境,生成了8.5萬條極其刁鉆的指令,對(duì)V3.2正式版進(jìn)行高強(qiáng)度的特訓(xùn),最新的V3.2模型像裝了一個(gè)“工作記憶暫存區(qū)”。

640-6.jpeg

DeepSeek-V3.2的注意力架構(gòu)

傳統(tǒng)模型在處理長(zhǎng)文檔時(shí),為了回答你一個(gè)簡(jiǎn)單的問題會(huì)將全部?jī)?nèi)容都仔細(xì)讀一遍,并計(jì)算它們之間的關(guān)聯(lián),這導(dǎo)致計(jì)算量隨著內(nèi)容量呈指數(shù)級(jí)爆炸。DSA則是為V3.2配備了「索引器」—— 當(dāng)問題來臨時(shí),先掃描一遍索引,判斷出具體哪些部分可能包含答案,然后只對(duì)這篩選出的1%的關(guān)鍵內(nèi)容進(jìn)行精細(xì)的深度閱讀。

這種查目錄而非死磕全書的策略,將計(jì)算復(fù)雜度從可怕的指數(shù)級(jí)直接拉低到了近乎線性。V3.2在保持模型性能穩(wěn)定的同時(shí),在訓(xùn)練推理效率方面有了較大的提升,帶來了模型較大幅度的降價(jià);而算力盈余帶來的智力涌現(xiàn)才是最精彩的一點(diǎn),正因?yàn)镈SA節(jié)省了大量算力,DeepSeek-V3.2 Speciale利用節(jié)省下來的資源,能進(jìn)行更深度的長(zhǎng)思考和邏輯推演。

同時(shí),考慮到當(dāng)前之間能力差距在縮小,成本的下降意味著模型具有更好的性價(jià)比和可推廣性,也將促進(jìn)應(yīng)用端實(shí)現(xiàn)更多功能的落地。DeepSeek-V3.2的橫空出世,正是DeepSeek開源AI的魅力時(shí)刻:拒絕無腦燒錢Scaling,靠更聰明的算法,在算力的縫隙中開辟出通往頂峰的捷徑。

在今年,DeepSeek此前已發(fā)布7款模型 DeepSeek?R1、DeepSeek?R1 Zero、DeepSeek?V3、DeepSeek?V3.1、DeepSeek?V3.1 Terminus、DeepSeek?V3.2 Exp、DeepSeek?OCR、DeepSeek?Math-V2,「開源之神」當(dāng)之無愧:

大模型發(fā)展的關(guān)鍵轉(zhuǎn)折點(diǎn)

作為全球最大AI社區(qū)的掌舵者,Hugging Face聯(lián)合創(chuàng)始人兼首席科學(xué)家托馬斯·沃爾夫(Thomas Wolf)指出,現(xiàn)在的美國(guó)初創(chuàng)公司如果想要探索閉源系統(tǒng)能力之外的新方向,往往“不得不從中國(guó)模型開始”。很多想要做交互式世界模型(Interactive World Model)或者其他邊緣創(chuàng)新的公司,發(fā)現(xiàn)閉源的API接口根本無法滿足他們對(duì)底層控制的需求,相比之下,開源模式則更加靈活。這時(shí)候,來自中國(guó)的DeepSeek或Qwen就成了唯一的選擇,它們?cè)试S開發(fā)者查看權(quán)重、修改代碼、在本地硬件上運(yùn)行,這種自由度閉源模型所無法提供的。

這個(gè)局面的發(fā)生既在意料之外,又在情理之中。過去幾年,美國(guó)政府層層加碼的芯片出口管制,本意是遏制中國(guó)AI的發(fā)展,但結(jié)果似乎適得其反,算力的緊缺反而倒逼中國(guó)開發(fā)者走上了一條極致優(yōu)化的道路。

為了應(yīng)對(duì)這個(gè)局面,美國(guó)科技界正在經(jīng)歷一種“開源覺醒”:例如特朗普政府近期發(fā)布的「創(chuàng)世紀(jì)AI行動(dòng)計(jì)劃」,通過行政命令鼓勵(lì)美國(guó)企業(yè)投資開源模型,試圖把開源的重心拉回美國(guó)。但這種追趕并非易事,因?yàn)樯鷳B(tài)一旦形成,就具有強(qiáng)大的慣性。需要注意的是,雖然受限于出口管制,英偉達(dá)的高端芯片難以直接進(jìn)入中國(guó),但通過支持開源社區(qū),英偉達(dá)實(shí)際上在維持其技術(shù)標(biāo)準(zhǔn)在全球的統(tǒng)治地位。

如果未來的趨勢(shì)是更小的模型、更邊緣的部署、更垂直的應(yīng)用,那么龐大的閉源通用模型可能會(huì)變得像當(dāng)年的大型機(jī)一樣,雖然強(qiáng)大,但與絕大多數(shù)創(chuàng)新無關(guān)。那么,如果當(dāng)全球新一代的AI工程師習(xí)慣了在Qwen的架構(gòu)上寫代碼,習(xí)慣了用DeepSeek的模型做微調(diào),那么未來的技術(shù)標(biāo)準(zhǔn)制定權(quán),可能真的會(huì)易主。


關(guān)鍵詞: 開源 AI 大模型 DeepSeek

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉