| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

谷歌: 一文讀懂谷歌TPU:英偉達暴跌跟它有關


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!



Alphabet兼谷歌首席執行官桑達爾·皮查伊

文丨無忌


編輯丨蘇揚

股價“跌跌不休”,英偉達都不得不站出來表態,“我們領先了全行業一代”。

事情要從巴菲特“謝幕之作”說起——伯克希爾·哈撒韋公司首次建倉谷歌母公司Alphabet股票,隨後更勁爆的是市場又傳出英偉達大客戶Meta考慮2027年在其數據中心部署谷歌TPU,並於2026年通過谷歌雲租用TPU算力。

英偉達在緊急聲明中,強調GPU在性能、通用性和可移植性方面“遠優於”ASIC(專用集成電路),並重申自研TPU無法替代 GPU的靈活性。谷歌發言人也表示繼續和英偉達保持合作關系,並強調公司致力於同時支持TPU和英偉達GPU。

TPU,從一個10年前為了解決AI計算效率瓶頸的“救命項目”,如今已經發展成為谷歌的“經濟支柱”。

作為自研ASIC芯片的代表,TPU已經具備動搖英偉達根基的潛力,只不過谷歌的邏輯不是和英偉達比單卡性能,而是在用一套完全不同的超大規模系統哲學,重新定義AI基礎設施的未來。

一切都要從10年前,TPU誕生的那一刻說起。


01 TPU的前世今生



TPU v1


谷歌在2015年啟動TPU項目,這並非出於炫技,更不是為了彰顯技術實力,而是被逼入了一個“不自研將難以支撐未來業務規模”的現實。

隨著深度學習谷歌內部的應用不斷擴散,谷歌工程團隊當時意識到一個關鍵問題正在逼近——包括搜索、廣告等谷歌核心服務都涉及巨量用戶請求,如果全面采用深度學習模型,那麼谷歌全球數據中心的功耗將暴漲至難以承受的程度,即使采購再多GPU也無法滿足需求,更不用說成本上的激增。

彼時GPU更適合訓練大規模神經網絡,但其能效並非針對實時在線推理設計。

谷歌內部甚至出現過預測:如果未來所有核心業務上線深度模型,全球數據中心的電力成本會增長十倍。內部高層意識到,繼續依賴 CPU和GPU的現有路線不可持續。

因此,谷歌決定自研ASIC加速器,目標不是造一個“最強通用芯片”,而是造一個“可大量部署在數據中心、用於特定矩陣運算的高能效芯片”。

最終,TPU v1在2016年正式投入使用,用於支持谷歌翻譯以及部分搜索功能,證明了ASIC方案具備可行性。
您的點贊是對我們的鼓勵     好新聞沒人評論怎麼行,我來說幾句
上一頁12345下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0264 秒 and 3 DB Queries in 0.0024 秒