| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

DeepSeek V4炸場背後:有人在內斗,有人在接力


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!



當硅谷閉源陣營陷入“博弈”的內斗泥沼,中國大模型正在用另一種方式撕開缺口。

4月24日,期待已久的DeepSeek-V4預覽版正式發布並同步開源,DeepSeek-V4分為Pro與Flash兩個版本,均支持百萬(1M)token超長上下文。同樣在這周,Kimi不約而同地發布了最新模型K2.6,把Agent能力從“單點調用”升級為“集群協同”。




一周誕生了兩個萬億參數的開源模型,不僅讓全球開源領域的目光集體聚焦中國,更悄然勾勒出中美AI賽道截然不同的發展底色——當美國AI頭部企業陷入愈演愈烈的內斗,而中國的開源AI似乎已經跑通了一條協同進化的道路。

01

同周開源,分工明確互不內卷


就在DeepSeek V4引發風暴的同一周,月之暗面發布Kimi K2.6並開源,提升了Agent集群能力:支持300個Agent並行,可自主拆解和完成長周期的復雜工程任務。這與DeepSeek形成了鮮明的路線互補。



DeepSeek主攻“深度推理、長文本理解、算力效率”,Kimi猛攻“多Agent集群、長周期任務執行、復雜工程落地”,兩條路徑各自跑通閉環,共同擴大了中國開源模型的全球輻射范圍。


但是,兩家AI公司的這種“默契”真的是巧合嗎?

真正的細節藏在技術報告裡。

最典型的就是兩個關鍵技術的互相引用。

DeepSeek V3提出的MLA(多頭潛在注意力)技術,是它最核心的架構創新之一,能通過壓縮KV緩存,大幅降低大模型的推理成本——要知道,推理成本是大模型落地的最大門檻之一,MLA技術直接讓DeepSeek的推理效率提升一個檔次。而Kimi在K2系列模型中,選擇沿用MLA架構,靠著這項技術,成功壓縮了KV緩存體積,為Agent能力的落地掃清了障礙。
您的點贊是對我們的鼓勵     這條新聞還沒有人評論喔,等著您的高見呢
上一頁12下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0283 秒 and 5 DB Queries in 0.0022 秒