📢 Gate廣場 #创作者活动第一期# 火熱開啓,助力 PUMP 公募上線!
Solana 爆火項目 Pump.Fun($PUMP)現已登入 Gate 平台開啓公開發售!
參與 Gate廣場創作者活動,釋放內容力量,贏取獎勵!
📅 活動時間:7月11日 18:00 - 7月15日 22:00(UTC+8)
🎁 活動總獎池:$500 USDT 等值代幣獎勵
✅ 活動一:創作廣場貼文,贏取優質內容獎勵
📅 活動時間:2025年7月12日 22:00 - 7月15日 22:00(UTC+8)
📌 參與方式:在 Gate 廣場發布與 PUMP 項目相關的原創貼文
內容不少於 100 字
必須帶上話題標籤: #创作者活动第一期# #PumpFun#
🏆 獎勵設置:
一等獎(1名):$100
二等獎(2名):$50
三等獎(10名):$10
📋 評選維度:Gate平台相關性、內容質量、互動量(點讚+評論)等綜合指標;參與認購的截圖的截圖、經驗分享優先;
✅ 活動二:發推同步傳播,贏傳播力獎勵
📌 參與方式:在 X(推特)上發布與 PUMP 項目相關內容
內容不少於 100 字
使用標籤: #PumpFun # Gate
發布後填寫登記表登記回鏈 👉 https://www.gate.com/questionnaire/6874
🏆 獎勵設置:傳播影響力前 10 名用戶,瓜分 $2
AI大模型競爭加劇:燒錢遊戲還是價值創造
AI的百模大戰:一場千億美元級別的燒錢遊戲
上個月,AI業界爆發了一場"動物戰爭"。
一方是Meta推出的Llama(美洲駝)。由於其開源特性,Llama深受開發者社區歡迎。日本電氣公司NEC在仔細研究Llama論文和原始碼後,迅速開發出了日語版ChatGPT,幫助日本解決了AI技術瓶頸問題。
另一方則是名爲Falcon(獵鷹)的大模型。今年5月,Falcon-40B問世,超越美洲駝登頂了"開源LLM排行榜"。
該榜單由開源模型社區制作,提供了一套評估LLM能力的標準。排行榜基本上就是Llama和Falcon輪流佔據榜首。
Llama 2推出後,美洲駝家族暫時領先;但到了9月初,Falcon推出180B版本,再次取得更高排名。
有趣的是,"獵鷹"的開發者不是某家科技公司,而是位於阿布扎比的科技創新研究所。政府人士表示,他們參與這個領域是爲了顛覆主要參與者。
180B版本發布第二天,阿聯酋人工智能部長入選了《時代周刊》評選的"AI領域最具影響力的100人"。與這位中東代表一同入選的,還有"AI教父"辛頓、OpenAI的阿爾特曼,以及百度CEO李彥宏。
如今,AI領域早已進入"百花齊放"階段:只要有一定財力的國家和企業,多少都有打造本土版ChatGPT的計劃。僅在海灣國家圈子內,就不止一個參與者。8月,沙特阿拉伯剛剛爲國內大學購買了3000多塊H100芯片,用於訓練LLM。
有投資人在社交媒體上評論道:"當年看不起互聯網的商業模式創新,覺得沒有壁壘:百團大戰、百車大戰、百播大戰;沒想到硬科技大模型創業,依然是百模大戰..."
原本以爲的高難度硬科技,怎麼就變成了一國一模、遍地開花的景象?
Transformer吞噬世界
美國初創公司、中國科技巨頭、中東石油大亨能夠投身大模型領域,都要感謝那篇著名論文:《Attention Is All You Need》。
2017年,8位谷歌計算機科學家在這篇論文中,向全世界公開了Transformer算法。該論文目前是人工智能歷史上被引用次數第三高的論文,Transformer的出現引發了此輪人工智能熱潮。
當前的大模型無論國籍如何,包括轟動世界的GPT系列,都是建立在Transformer基礎之上。
在此之前,"教機器閱讀"一直是公認的學術難題。不同於圖像識別,人類在閱讀文字時,不僅關注當前詞句,還會結合上下文理解。
例如"Transformer"一詞可翻譯爲"變形金剛",但本文讀者肯定不會這樣理解,因爲大家都知道這不是一篇講好萊塢電影的文章。
但早期神經網路的輸入都是彼此獨立的,並不具備理解長篇文字甚至整篇文章的能力,所以才會出現把"開水間"翻譯成"open water room"這種問題。
直到2014年,在谷歌工作後來加入OpenAI的計算機科學家伊利亞率先取得突破。他使用循環神經網路(RNN)處理自然語言,使谷歌翻譯性能迅速超越競爭對手。
RNN提出了"循環設計",讓每個神經元既接受當前時刻輸入信息,也接受上一時刻的輸入信息,從而使神經網路具備了"結合上下文"的能力。
RNN的出現激發了學術界的研究熱情,日後Transformer論文作者沙澤爾也一度投入其中。然而開發者們很快意識到,RNN存在一個嚴重缺陷:
該算法使用順序計算,雖然能解決上下文問題,但運行效率不高,難以處理大量參數。
RNN的繁瑣設計,很快讓沙澤爾感到不滿。因此從2015年開始,沙澤爾和7位志同道合的同事着手開發RNN的替代品,其成果就是Transformer。
相比RNN,Transformer的變革有兩點:
一是用位置編碼取代RNN的循環設計,實現並行計算——這大大提升了Transformer的訓練效率,使其能夠處理大數據,將AI推向大模型時代;二是進一步加強了理解上下文的能力。
隨着Transformer一舉解決衆多缺陷,它逐漸成爲NLP(自然語言處理)的主流方案,有種"天不生Transformer,NLP萬古如長夜"的感覺。連伊利亞都放棄了親手推廣的RNN,轉而支持Transformer。
換言之,Transformer是如今所有大模型的基礎,因爲它將大模型從理論研究問題轉變爲純粹的工程問題。
2019年,OpenAI基於Transformer開發出GPT-2,一度驚豔學術界。作爲回應,谷歌迅速推出了性能更強的AI,名爲Meena。
與GPT-2相比,Meena在底層算法上並無革新,僅是比GPT-2多了8.5倍的訓練參數、14倍的算力。Transformer論文作者沙澤爾對這種"暴力堆砌"方式大爲震撼,當即寫了篇"Meena吞噬世界"的備忘錄。
Transformer的問世,使學術界的底層算法創新速度大幅放緩。數據工程、算力規模、模型架構等工程要素,逐漸成爲AI競賽的關鍵因素,只要有一定技術能力的科技公司,都能開發出大模型。
因此,計算機科學家吳恩達在斯坦福大學演講時提出:"AI是一系列工具的集合,包括監督學習、無監督學習、強化學習以及現在的生成式人工智能。所有這些都是通用技術,與電力和互聯網等其他通用技術類似。"
OpenAI雖然仍是LLM的風向標,但半導體分析機構Semi Analysis認爲,GPT-4的競爭力源自工程解決方案——如果開源,任何競爭對手都能迅速復制。
該分析師預計,或許用不了太久,其他大型科技公司也能開發出與GPT-4性能相當的大模型。
建在玻璃上的護城河
當前,"百模大戰"已不再是一種比喻,而是客觀現實。
相關報告顯示,截至今年7月,國內大模型數量已達130個,超過美國的114個,實現了彎道超車,各種神話傳說已經快不夠國內科技公司取名用了。
在中美之外,一些較爲富裕的國家也初步實現了"一國一模":除了日本與阿聯酋,還有印度政府主導的大模型Bhashini、韓國互聯網公司Naver打造的HyperClova X等。
眼前這種情況,仿佛回到了那個泡沫遍布、資本大戰的互聯網早期時代。
正如前文所述,Transformer讓大模型變成了純粹的工程問題,只要有人力、資金和硬件,剩下的就交給參數。但入場門檻雖不高,也並不意味着人人都有機會成爲AI時代的領軍企業。
開頭提到的"動物戰爭"就是個典型案例:Falcon雖然在排名上超越美洲駝,但很難說對Meta造成了多大影響。
衆所周知,企業開源自身的科研成果,既是爲了與社會共享科技成果,也希望能調動起社會各界的智慧。隨着各個大學教授、研究機構、中小企業不斷深入使用、改進Llama,Meta可以將這些成果應用於自己的產品中。
對開源大模型而言,活躍的開發者社群才是其核心競爭力。
而早在2015年組建AI實驗室時,Meta就確立了開源的基本方針;扎克伯格又是靠社交媒體起家,更善於"維護用戶關係"。
例如在10月,Meta專門舉辦了一個"AI版創作者激勵"活動:使用Llama 2來解決教育、環境等社會問題的開發者,將有機會獲得50萬美元的資助。
如今,Meta的Llama系列已成爲開源LLM的風向標。
截至10月初,某開源LLM排行榜Top 10中,共有8個都是基於Llama 2開發的,均使用了它的開源協議。僅在該平台上,使用了Llama 2開源協議的LLM已經超過1500個。
當然,像Falcon一樣提高性能也未嘗不可,但目前,市面上大多數LLM仍與GPT-4有明顯的性能差距。
例如前不久,GPT-4以4.41分的成績在AgentBench測試中排名第一。AgentBench標準由清華大學與俄亥俄州立大學、加州大學伯克利分校共同制定,用於評估LLM在多維度開放式生成環境中的推理能力和決策能力,測試內容涵蓋了操作系統、數據庫、知識圖譜、卡牌對戰等8個不同環境的任務。
測試結果顯示,第二名的Claude僅得2.77分,差距仍較爲明顯。至於那些聲勢浩大的開源LLM,其測試成績多在1分左右徘徊,還不到GPT-4的1/4。
需要注意的是,GPT-4發布於今年3月,這還是全球同行追趕了大半年之後的成績。而造成這種差距的,是OpenAI高水平的科學家團隊與長期研究LLM積累的經驗,因此可以始終保持領先地位。
換言之,大模型的核心能力並非參數,而是生態建設(開源)或純粹的推理能力(閉源)。
隨着開源社區日益活躍,各個LLM的性能可能會趨於一致,因爲大家都在使用相似的模型架構與數據集。
另一個更直觀的問題是:除了Midjourney,似乎還沒有哪個大模型能實現盈利。
價值的錨點
今年8月,一篇題爲"OpenAI可能會於2024年底破產"的文章引起了廣泛關注。文章主旨幾乎可以用一句話概括:OpenAI的燒錢速度過快。
文中提到,自從開發ChatGPT以來,OpenAI的虧損正迅速擴大,僅2022年就虧損約5.4億美元,只能依靠微軟投資來維持。
文章標題雖然誇張,卻也反映了衆多大模型提供商的現狀:成本與收入嚴重失衡。
過高的成本導致目前靠人工智能賺大錢的只有英偉達,可能再加上博通。
據諮詢公司Omdia估計,英偉達在今年二季度售出了超30萬塊H100。這是一款AI芯片,訓練AI的效率極高,全球的科技公司、科研機構都在爭相購買。如果將賣出的這30萬塊H100疊在一起,其重量相當於4.5架波音747飛機。
英偉達的業績也隨之飆升,同比營收暴增854%,令華爾街震驚。值得一提的是,目前H100在二手市場的價格已被炒到4-5萬美元,但其生產成本僅約3000美元。
高昂的算力成本在某種程度上已經成爲行業發展的障礙。某知名投資機構曾做過一項估算:全球科技公司每年預計將花費2000億美元用於大模型基礎設施建設;相比之下,大模型每年最多只能創造750億美元的收入,中間存在至少1250億美元的缺口。
此外,除了Midjourney等少數例外,大多數軟件公司在投入巨額成本後,還沒找到清晰的盈利模式。尤其是行業的兩大領頭羊——微軟和Adobe的表現都不太理想。
微軟和OpenAI曾合作開發了一個AI代碼生成工具,雖然每月收取10美元月費,但由於設施成本,微軟反而要倒貼20美元,重度用戶甚至能讓微軟每月虧損80美元。據此推測,定價30美元的Microsoft 365 Copilot可能虧損更多。
同樣,剛推出Firefly AI工具的Adobe也迅速上線了一個配套的積分系統,以防用戶過度使用導致公司虧損。一旦用戶使用超過每月分配的積分,Adobe就會降低服務速度。
要知道微軟和Adobe已經是業