| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

"後果不堪設想" AI巨頭重磅控中國工業級盜取


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
美國人工智能公司Anthropic周一(2月23日)指控中國企業DeepSeek大規模利用其人工智能助手Claude,以訓練和開發自身人工智能模型。數日前,Anthropic的主要競爭對手OpenAI也曾指控DeepSeek采取類似手段“竊取”其模型技術。


法新社報道,Anthropic周一在官網發布聲明稱,除DeepSeek外,另外兩家中國人工智能新創公司——Moonshot AI(月之暗面科技,旗下產品為Kimi)以及MiniMax(迷你極,開發Talkie接口)——也曾對Claude進行類似操作。

DeepSeek於2025年1月因推出人工智能模型V3而引發業界震動。該模型於2024年12月底上線,外界普遍認為其性能已可與美國最先進的人工智能產品相抗衡;而DeepSeek則宣稱,其研發投入僅為美國科技巨頭相關支出的一小部分。


Anthropic表示,這三家中國機構共創建約2.4萬個賬戶,分別接入Claude,並累計進行超過1600萬次對話。公司指控,這些行為旨在進行所謂“蒸餾”(distillation)操作,即通過借鑒性能更強模型生成的回答,訓練和開發能力較低的新模型。

Anthropic指出,“蒸餾”技術本身並不違法,許多人工智能企業都會利用該方法,開發更精簡版本的自家模型。然而,這種技術也可能被濫用,使企業以遠低於傳統研發成本的方式,加速開發自身產品。

聲明稱,這類操作還可能繞過原始模型的安全規則與限制,為潛在的惡意用途打開空間。

Anthropic進一步指,DeepSeek曾要求Claude披露其生成回答時的全部步驟,這些信息有助於改進自身模型。此外,公司表示,已識別出部分DeepSeek開發人員,這些人員曾研究Claude在回答涉及異議人士、威權體制等敏感議題時的處理邏輯和回應方式。

Anthropic認為,這些做法“很可能”旨在訓練DeepSeek模型,使其在涉及中國當局審查的話題時轉移或規避相關討論。

相關指控公布之時,科技業界正密切關注DeepSeek即將發布的新一代模型V4。數日前,OpenAI已向美國國會提交備忘錄,指控DeepSeek采取類似手段“竊取”其模型技術。

延伸閱讀:


亞洲金融:美國AI巨頭Anthropic,剛撕開中國AI的面具:三家人工智能實驗室DeepSeek、月之暗面(Moonshot)和MiniMax,發起了大規模的非法攻擊活動,試圖竊取Claude的功能,以改進其自身模型。這些實驗室通過約24,000個欺詐賬戶,與Claude進行了超過1600萬次對話交互,違反了我們的服務條款和區域訪問限制。

美國AI巨頭Anthropic,剛撕開中國AI的面具:三家人工智能實驗室DeepSeek、月之暗面(Moonshot)和MiniMax,發起了大規模的非法攻擊活動,試圖竊取Claude的功能,以改進其自身模型。這些實驗室通過約24,000個欺詐賬戶,與Claude進行了超過1600萬次對話交互,違反了我們的服務條款和區域訪問限制。… pic.twitter.com/PXfY5byKHq— 亞洲金融 Asia Finance (@AsiaFinance) February 23, 2026

這些實驗室使用了一種名為“蒸餾”的技術,即利用功能更強大的模型的輸出來訓練功能較弱的模型。蒸餾是一種廣泛使用的訓練方法。例如,前沿人工智能實驗室通常會蒸餾自己的模型,從而為客戶創建更小、更便宜的版本。但蒸餾也可能被用於非法目的。未經授權對競爭對手的模型進行蒸餾則違反了服務條款。




REUTERS - Dado Ruvic

三家公司操作手法類似:用大量虛假賬戶,繞過Anthropic對中國的訪問限制。MiniMax超過1300萬次交互,主要提取編程和工具使用能力;月之暗面340萬次,瞄准智能體推理和計算機視覺;DeepSeek手法最為陰暗:讓Claude反向“復述”自己的推理過程來生成思維鏈訓練數據,還讓Claude生成政治敏感問題的"安全回答",疑似用於訓練自家模型的審查回避能力。



Anthropic表示已通過IP地址、請求元數據等信息,將攻擊溯源定位到具體實驗室,甚至具體研究人員,並稱這一發現說明,中國AI公司的快速進步,並非靠自主創新,而是在一定程度上依賴對美國模型能力的提取。這些攻擊的強度和復雜性都在不斷增加。應對這些攻擊需要行業參與者、政策制定者和更廣泛的人工智能界迅速采取協調一致的行動。

Anthropic正開發產品、API和模型層面的安全措施,旨在降低模型輸出被非法算法提煉的可能性,同時又不影響合法用戶的體驗。但任何一家公司都無法獨自解決這個問題。正如前面提到的,如此大規模的算法提煉攻擊需要人工智能行業、雲服務提供商和政策制定者之間的協調應對。發布這些信息,是為了讓所有利益相關者,都能了解相關證據。
覺得新聞不錯,請點個贊吧     無評論不新聞,發表一下您的意見吧
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0221 秒 and 5 DB Queries in 0.0022 秒