📢 Gate廣場 #NERO发帖挑战# 秀觀點贏大獎活動火熱開啓!
Gate NERO生態周來襲!發帖秀出NERO項目洞察和活動實用攻略,瓜分30,000NERO!
💰️ 15位優質發帖用戶 * 2,000枚NERO每人
如何參與:
1️⃣ 調研NERO項目
對NERO的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與NERO生態周相關活動,並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
NERO熱門活動(帖文需附以下活動連結):
NERO Chain (NERO) 生態周:Gate 已上線 NERO 現貨交易,爲回饋平台用戶,HODLer Airdrop、Launchpool、CandyDrop、餘幣寶已上線 NERO,邀您體驗。參與攻略見公告:https://www.gate.com/announcements/article/46284
高質量帖子Tips:
教程越詳細、圖片越直觀、互動量越高,獲獎幾率越大!
市場見解獨到、真實參與經歷、有帶新互動者,評選將優先考慮。
帖子需原創,字數不少於250字,且需獲得至少3條有效互動
AMD MI300絕殺英偉達H100? 跑GPT-4性能超25%,AI晶片大決戰一觸即發
文章來源:新智元
AI晶片大決戰,即將來臨!
AI硬體開發商初創公司的未來會怎樣?
Tenstorrent CEO David Bennett直言不諱地表示,在我們這個行業,大部分初創公司的結局就是倒閉。
該如何生存? 他建議初創企業應該保持靈活性,避免將自己局限在狹隘的用例中。
這裡,Bennett指的並不是某個小眾市場, 而是由 SiMa.ai 到Cerebras等數十家公司組成的一個廣泛集團。 他們共同籌集了數十億美元的風投,來對抗這個市場的領導者——英偉達。
Bennett深諳此道。 他曾在AMD從事銷售工作十多年。
而他目前的僱主Tenstorrent的CEO,是Jim Keller,一位硬體傳奇人物。 他曾開發出支援iPhone 4和iPad 2的蘋果A4和A5處理器,並在2016年至2018年負責特斯拉自動駕駛汽車的硬體工作。
Bennett表示,如今的晶片初創公司,大致都是在「為AI製造專用硬體」和「依賴當下流行模式」這兩者之間徘徊。
英偉達的劣勢:很難從頭製造晶元
英偉達的AI晶元GPU起家的故事,實際上為今天的晶元初創公司提供了優勢。
圖形處理單元起初是為計算機圖形學提供動力的,但由於它能並行執行多種計算,才在AI應用領域大放異彩。
不過,但這一意外也給英偉達帶來了不利因素——現在,英偉達很難在不影響現有GPU業務的情況下,從頭開始製造晶元了,而這,就給了新興初創公司提供了機會,製造專為AI打造的新硬體。
比如,Tenstorrent的工程師就為未來的稀疏神經網路設計了Grayskull晶片,在這種網路中,冗餘資訊可以被去除。
在這種架構下,基於Transformer的模型基本是在預測最有可能出現的下一個單詞,因此它們一直被詬病生成的回答是基於概率,而非基於推理。
這也就意味著,在當前的AI熱潮中,這些模型架構可能無法倖存下來。
畢竟,由於發展速度太快,如今的LLM壽命相對較短。 昨天還炙手可熱的模型,一兩周後可能就會銷聲匿跡。
另一個對硬體公司來說風險很大的領域,就是製造專門用於推理的晶元。
這方面的代表是晶元開發商d-Matrix,它計劃在明年上半年發佈推理專用晶元。
正因如此,許多人認為,應該在模型推理上花更多錢,而非模型訓練上。
雖然從商業角度來看,這可能是一個明智之舉,但Bennett認為,過於狹隘地專注於推理,會阻礙硬體開發人員為其他可能更受歡迎的用例提供服務。
例如,對於運行模型所需的低精度計算,純推理晶元就夠了。
但是,如果開發者想要微調大模型,就很可能需要能處理更高精度計算的晶元了。
尖端晶片,把GPU和CPU放在一起
為了在即將到來的AI晶元大決戰中倖存,晶元開發商需要改變晶元的架構。
今天,大多數晶元都是把GPU和CPU分開的。 前者能夠同時執行多種計算,後者負責執行更多的通用指令,管理更廣泛的系統操作。
然而越來越多的尖端晶元(如英偉達的Grace Hopper 超級晶元和AMD即將推出的MI300A),都將GPU和CPU放在一起。
這種佈局可以讓CPU更快地準備數據,將數據載入到GPU上,從而加快模型的訓練。
另外,硬體初創公司想要打破英偉達的市場主導地位,還面臨著一個最大的障礙,就是軟體優勢。
英偉達用於編寫機器學習應用程式的Cuda軟體,只能在自家晶元上運行。 而這實際上就把開發者鎖定在了英偉達GPU上。
AMD MI300跑GPT-4更6
英偉達的霸主地位,就這麼難以撼動?
Semianalysis記者Dylan Patel和Myron Xie最近就發文稱,AMD的MI300在性價比方面,將會明顯優於英偉達的H100!
相比之下,Groq、SambaNova、英特爾、亞馬遜、微軟等公司仍無法與之抗衡。
此外,為了應對英偉達基於CUDA構建的護城河,AMD一直在大力投資自己的RoCM軟體、PyTorch生態系統和OpenAI的Triton。
隨著Databricks、AI21、Lamini、Moreph等公司開始使用AMD GPU進行推理/訓練,AMD自己的生態也愈發完善。
據業內人士透露,擁有更大顯存的MI300,在部署32K上下文視窗的GPT-4模型時效果更好。
再加上更低廉的價格,MI300在性價比方面,將會明顯優於英偉達的H100,甚至是H200。
大廠紛紛下單
目前,微軟、Meta、甲骨文、谷歌、Supermicro/Quantadirect、亞馬遜等公司已經向AMD下了大約205,000台MI300的訂單。
在這之中,有120,000台專門供應給微軟,25,000台給Meta,12,000台給甲骨文,8,000台給谷歌,5,000台給亞馬遜公司,35,000台給其他公司。
而且由於數量巨大,微軟購買MI300的價格預計要比其他客戶低上不少。
在供應方面,MI300的產能將在年內逐步提升,但由於英偉達B100會在第二季度開始出貨,並在第三季度隨著性價比更高的風冷版的推出而大幅提升,這將在很大程度上影響AMD在第四季度的出貨量。
同時,還需要考慮記憶體製造商的HBM產量、CoWoS產量、封裝產量以及使用CoWoS生產的每種加速器的情況,包括英偉達、AMD、Google/Broadcom、Meta/Broadcom、Intel/Al Chip、Amazon/Al Chip、Amazon/Marvell、Microsoft/GUC等。
即便如此,業內依然認為MI300X第四季度的出貨量可以達到110,000台。
利潤方面,英偉達並沒有降價的跡象,只是在價格不變的情況下增加了HBM容量/頻寬。 而與英偉達超過80%的獲利率相比,AMD在MI300上的獲利率僅勉強超過了50%。
這一增長也將使MI300成為AMD歷史上銷售額最快達到10億美元的產品。
對此,業內對於MI300X的銷售額則更加樂觀——預期可以達到35億美元。
從AMD目前在LLM訓練和推理領域小於0.1%的市場份額來看,AMD在數據中心領域的市場份額依然會穩步增長。