| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

DeepSeek V4炸場背後:有人在內斗,有人在接力


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!



當硅谷閉源陣營陷入“博弈”的內斗泥沼,中國大模型正在用另一種方式撕開缺口。

4月24日,期待已久的DeepSeek-V4預覽版正式發布並同步開源,DeepSeek-V4分為Pro與Flash兩個版本,均支持百萬(1M)token超長上下文。同樣在這周,Kimi不約而同地發布了最新模型K2.6,把Agent能力從“單點調用”升級為“集群協同”。




一周誕生了兩個萬億參數的開源模型,不僅讓全球開源領域的目光集體聚焦中國,更悄然勾勒出中美AI賽道截然不同的發展底色——當美國AI頭部企業陷入愈演愈烈的內斗,而中國的開源AI似乎已經跑通了一條協同進化的道路。

01

同周開源,分工明確互不內卷

就在DeepSeek V4引發風暴的同一周,月之暗面發布Kimi K2.6並開源,提升了Agent集群能力:支持300個Agent並行,可自主拆解和完成長周期的復雜工程任務。這與DeepSeek形成了鮮明的路線互補。



DeepSeek主攻“深度推理、長文本理解、算力效率”,Kimi猛攻“多Agent集群、長周期任務執行、復雜工程落地”,兩條路徑各自跑通閉環,共同擴大了中國開源模型的全球輻射范圍。

但是,兩家AI公司的這種“默契”真的是巧合嗎?

真正的細節藏在技術報告裡。

最典型的就是兩個關鍵技術的互相引用。

DeepSeek V3提出的MLA(多頭潛在注意力)技術,是它最核心的架構創新之一,能通過壓縮KV緩存,大幅降低大模型的推理成本——要知道,推理成本是大模型落地的最大門檻之一,MLA技術直接讓DeepSeek的推理效率提升一個檔次。而Kimi在K2系列模型中,選擇沿用MLA架構,靠著這項技術,成功壓縮了KV緩存體積,為Agent能力的落地掃清了障礙。



反過來,Kimi率先大規模驗證的Muon優化器,解決了萬億參數大模型訓練不穩定、效率低的行業難題——實現了“同等訓練量下效率翻倍”,相當於把50萬億token用出了100萬億的效果。而DeepSeek V4的技術報告裡,直接把Muon優化器寫進了訓練方案。

簡單說,DeepSeek的MLA幫Kimi降低了推理成本;Kimi的Muon幫DeepSeek降低了訓練成本。

你用我的架構,我用你的優化器。沒有糾紛,不用授權。這就是中國開源AI的獨有的正向循環模式——與硅谷企業將技術視為護城河的理念不同,在這兩家公司身上,以開源的態度協同共進的發展模式才是真正的護城河。

02

閉源必內斗


說到這裡,就不得不提OpenAI和Anthropic的斗爭史了。

早從ChatGPT誕生開始,OpenAI和Anthropic就注定是“死對頭”——Anthropic的核心團隊大多來自OpenAI,因為理念不合出走後,直接對標OpenAI做閉源模型,雙方在技術、人才、資本上展開全方位競爭。

從2023年到2026年,Anthropic的ARR幾乎每年都在以10倍的速度增長,步步緊逼OpenAI;到了2026年4月,據傳Anthropic公布的300億美元年化收入體量已反超OpenAI。OpenAI靠微軟的資金和算力壟斷高端市場,Anthropic則靠谷歌投資夾縫求生,兩者之間沒有任何技術共享,反而互相封鎖、互相拆台,甚至不惜通過訴訟爭奪技術專利。

在這種“雙雄打擂台”的態勢下,OpenAI近期甚至被曝出內部備忘錄,明確將對方鎖定為直接競爭對手,嚴防死守。

為什麼會這樣?核心就是閉源路線的本質——技術是“護城河”,是賺錢的工具,一旦共享,就會失去競爭優勢。閉源模型的盈利模式,決定了它們必須是“絕對競爭”的關系,蛋糕就這麼大,你多吃一口,我就少吃一口,根本沒有互助共贏的可能。

然而,中國AI軍團面臨的宏觀環境截然不同。在算力受限、高端芯片被海外“卡脖子”的底色下,中國企業若繼續內耗,無異於自絕前路。

因此,DeepSeek和Kimi果斷選擇了擁抱開源——把蛋糕做大、合力突圍。


在這個AI從“訓練為王”轉向“推理決勝”的年代,中國AI選擇的路線極具戰略遠見:用頂尖的開源模型擊穿閉源廠商的高昂定價權,通過近乎同水平的智能表現與大打折扣的價格,迅速占領全球開發者市場。

03

“兄弟”殊途同歸

更值得欣慰的是,這對中國雙子星,不僅在技術上互相成就,在突破國產芯片封鎖這件事上,也各自發力、殊途同歸,為中國AI的自主可控鋪平了道路。

DeepSeek走的是“工程適配”路線,V4首發適配華為(专题)昇騰芯片,工程團隊硬生生把整個技術棧從CUDA遷移到華為CANN框架,從算子庫、通信原語到內存管理,幾乎每一層都重新實現,還完成了寒武紀芯片的Day 0適配,代碼全部開源,用實際行動證明:國產芯片也能跑萬億參數的旗艦大模型。

連英偉達CEO黃仁勳都曾坦言,“如果DeepSeek先在華為平台發布,對我們來說非常可怕”,如今這句話已然成真。

Kimi則走的是“架構創新”路線,為了適配國產芯片,它掏出了“殺手鑭”:一是Kimi Linear混合注意力架構,把線性注意力和全注意力以3:1的比例混合,在長上下文推理中,解碼速度提升最高達6倍,KV緩存減少75%。讓RDMA高速網絡從“必選項”變成“可選項”。

二是PrFaaS技術,把推理的預填充和解碼階段徹底解耦,調度到不同的國產異構硬件上,讓算力強的國產卡做預填充,帶寬強的國產卡做解碼,相比傳統同構PD部署,實測吞吐量提升54%,P90延遲降低64%,徹底打破了“大模型推理必須綁定高端GPU”的魔咒。

一個從工程層面驗證國產芯片的承載能力,一個從架構層面優化國產芯片的運行效率,可以說,兩家公司在用不同的方式,共同推動“中國芯片+中國模型”的生態落地,讓英偉達不再是中國AI的唯一選擇。

04

總結:

當DeepSeek在V4公告中寫下“從現在開始,1M上下文將是標配”,當Kimi在K2.6的測試中讓智能體自主連續運行了整整五天,中國AI已經悄然越過了以參數論英雄的蠻荒期。

這不僅意味著中國企業在復雜的全球AI棋局中,找到了繞過算力封鎖的解題鑰匙,更深遠的意義在於,隨著國產算力的大規模放量以及中國開源大模型在全球占比份額的迅速攀升,一種嶄新的世界AI多極化格局已見雛形。當一個行業的壁壘從封鎖變成效率,從閉源的神秘變成開源的普惠,真正的風暴才剛剛開始。
覺得新聞不錯,請點個贊吧     無評論不新聞,發表一下您的意見吧
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0282 秒 and 5 DB Queries in 0.0019 秒