田淵棟給OpenAI神秘Q*專案潑冷水:合成數據不是AGI救星,能力僅限簡單數學題

來源:新智元

圖片來源:由無界 AI生成

大佬們關於Q猜想的討論仍在繼續,今天,AI大牛田淵棟公開表示,Q*只能解決入門級數學題,AGI也大概率無法通過合成數據實現。

Q*猜想,持續在AI社區火爆。

大家都在猜測,Q*是否就是「Q-learning + A*」。

AI大牛田淵棟也詳細分析了一番,「Q*=Q-learning+A*」的假設,究竟有多大可能性。

與此同時,越來越多人給出判斷:合成數據,就是LLM的未來。

不過,田淵棟對這種說法潑了冷水。

我部分不同意「AGI只需通過放大合成數據就能解決」的說法。
搜索之所以強大,是因為如果環境設計得當,它將創造出無限多的新模式供模型學習和適應。
然而,學習這樣的新模式是否需要數十億的數據,仍是一個未決問題,這可能表明,我們的架構/學習範式存在一些根本性缺陷。
相比之下,人類往往更容易通過「啊哈」時刻,來發現新的範式。

而英偉達高級科學家Jim Fan也對此表示同意:合成數據將發揮重要作用,但僅僅是通過盲目擴展,並不足以達到AGI。

Q*=Q-learning+A,有多大可能

田淵棟表示,根據自己過去在OpenGo(AlphaZero的再現)上的經驗,A* 可被視為只帶有值(即啟發式)函數Q的確定性MCTS版本。

A*很適用於這樣的任務:給定行動后,狀態很容易評估;但給定狀態后,行動卻很難預測。 符合這種情況的一個典型例子,就是數學問題。

相比之下,圍棋卻是另一番景象:下一步候選棋相對容易預測(只需通過檢查局部形狀),但要評估棋盤形勢,就棘手得多。

這就是為什麼我們也有相當強大的圍棋機器人,但它們只利用了策略網路。

對於LLM,使用Q(s,a)可能會有額外的優勢,因為評估Q(s,a) 可能只需要預填充,而預測策略a = pi(s) ,則需要自回歸採樣,這就要慢得多。 另外,在只使用解碼器的情況下,s的KV緩存可以在多個操作中共用。

傳說中的Q*,已經在解決數學問題上有了重大飛躍,這種可能性又有多大呢?

田淵棟表示,自己是這樣猜測的:因為解決的入門級數學問題,所以值函數設置起來應該相對容易一些(例如,可以從自然語言形式的目標規範中預測)。

如果想要解決困難的數學問題,卻不知道如何該怎麼做,那麼這種方法可能還不夠。

LeCun轉發了田淵棟的討論,對他的觀點表示贊同——「他解釋了A*(在圖形中搜索最短路徑)和MCTS(在指數增長的樹中搜索)之間適用性的差異。 」

對於LeCun的轉發,田淵棟表示,自己一直在做許多不同的事情,包括規劃、理解Transformers/LLM和高效的優化技術,希望能把這些技術都結合起來。

有網友表示懷疑稱,「要使A*有效,就需要一個可證明的、可接受且一致的啟發式函數。 但我非常懷疑能有人想出這樣的函數,因為確定子序列的值並不容易。 」

即使做出的是小學數學題,Q*也被寄予厚望

對大模型稍微有些瞭解的人都知道,如果擁有解決基本數學問題的能力,就意味著模型的能力取得了重大飛躍。

這是因為,大模型很難在訓練的數據之外進行泛化。

AI訓練初創公司Tromero的聯合創始人Charles Higgins表示,現在困擾大模型的關鍵按難題,就是怎樣對抽象概念進行邏輯推理,如果實現了這一步,就是毫無疑問的重大飛躍。

數學是關於符號推理的學問,比如,如果X比Y大,Y比Z大,那麼X就比Z大。

如果Q*的確就是Q-learning+A*,這就表明,OpenAI的全新模型可以將支援ChatGPT的深度學習技術與人類程式設計的規則相結合。 而這種方法,可以幫助解決LLM的幻覺難題。

Tromero聯創Sophia Kalanovska表示,這具有非常重要的象徵意義,但在實踐層面上,它不太可能會終結世界。

那為什麼坊間會有「Q*已現AGI雛形」的說法傳出呢?

Kalanovska認為,從目前傳出的說法看來,Q*能夠結合大腦的兩側,既能從經驗中瞭解一些事情,還能同時推理事實。

顯然,這就離我們公認的智慧又近了一步,因為Q*很可能讓大模型有了新的想法,而這是ChatGPT做不到的。

現有模型的最大限制,就是僅能從訓練數據中反芻資訊,而不能推理和發展新的想法。

解決看不見的問題,就是創建AGI的關鍵一步。

薩里人類中心AI研究所的所長Andrew Rogoyski表示,現在已有的大模型,都可以做本科水準的數學題,但一旦遇到更高級的數學題,它們就全部折戟了。

但如果LLM真的能夠解決全新的、看不見的問題,這就是一件大事,即使做出的數學題是相對簡單的。

合成數據是未來LLM的關鍵?

所以,合成數據是王道嗎?

Q*的爆火引起一眾大佬的猜想,而對於傳聞中「巨大的計算資源,使新模型能夠解決某些數學問題」,大佬們猜測這重要的一步有可能是RLAIF(來自 AI 反饋的強化學習)。

RLAIF是一種由現成的 LLM 代替人類標記偏好的技術,通過自動化人工反饋,使針對LLM的對齊操作更具可擴充性。

之前在LLM訓練中大放異彩的RLHF(基於人類反饋的強化學習) 可以有效地將大型語言模型與人類偏好對齊,但收集高品質的人類偏好標籤是一個關鍵瓶頸。

於是Anthropic、Google等公司已經嘗試轉向RLAIF,使用AI來代替人類完成反饋訓練的過程。

這也就意味著,合成數據才是王道,並且使用樹形結構為以後提供越來越多的選擇,以得出正確的答案。

不久前Jim Fan就在推特上表示,合成數據將提供下一萬億個高品質的訓練數據。

「我敢打賭,大多數嚴肅的LLM小組都知道這一點。 關鍵問題是如何保持品質並避免過早停滯不前。 」

Jim Fan還引用了Richard S. Sutton的文章《The Bitter Lesson》,來說明,人工智慧的發展只有兩種範式可以通過計算無限擴展:學習和搜索。

「在撰寫這篇文章的2019 年是正確的,而今天也是如此,我敢打賭,直到我們解決 AGI 的那一天。 」

Richard S. Sutton是加拿大皇家學會和英國皇家學會的院士,他被認為是現代計算強化學習的創始人之一,對該領域做出了多項重大貢獻,包括時間差異學習和策略梯度方法。

在這篇文章中,Sutton主要表達了這樣幾個觀點:

利用計算的通用方法最終是最有效的,而且效率很高。 但有效的原因在於摩爾定律,更確切地說是由於每單位計算成本持續呈指數下降。

最初,研究人員努力通過利用人類知識或遊戲的特殊功能來避免搜索,而一旦搜索得到大規模有效應用,所有這些努力都會顯得無關緊要。

統計方法再次戰勝了基於人類知識的方法,這導致了整個自然語言處理領域的重大變化,幾十年來,統計和計算逐漸成為了主導。

人工智慧研究人員經常試圖將知識構建到系統中,這在短期內是有説明的,但從長遠來看,有可能會阻礙進一步的進展。

突破性的進展最終將通過基於搜索和學習的方法來實現。

心靈的實際內容是極其複雜的,我們應該停止嘗試尋找簡單的方法來表示思想,相反,我們應該只構建可以找到並捕獲這種任意複雜性的元方法。

——所以,看起來Q*似乎抓住了問題的關鍵(搜索和學習),而合成數據將進一步使它突破以往的限制,達成自己的飛躍。

對於合成數據,馬斯克也表示人類確實打不過機器。

「你可以把人類寫的每本書的文字都放在一個硬碟上(嘆氣),而合成數據將遠遠超過這些。 」

對此,Jim Fan與馬斯克互動說,

「如果我們能大規模模擬它們,大量的合成數據將來自具身智慧體,例如Tesla Optimus。 」

Jim Fan認為 RLAIF 或者來自 groundtruth 反饋的 RLAIF 如果正確擴展將有很長的路要走。 此外,合成數據還包括模擬器,原則上可以説明LLM開發世界模型。

「理想情況下是無限的。 但令人擔憂的是,如果自我提升迴圈不夠有效,就有可能會停滯不前。 」

對於兩人的一唱一和,LeCun表示有話要說:

LeCun認為,動物和人類在訓練數據量極少的情況下,很快就變得非常聰明。

所以,使用更多的數據(合成或非合成)是一種暫時的權宜之計,只是因為我們目前的方法有局限性。

對此,支援「大數據派」的網友表示不服:

「難道不應該是數百萬年的進化適應類似於預訓練,而我們一生的經驗類似於持續的微調嗎?」

LeCun於是給出一個例子作為解釋,人類用於承接幾百萬年進化成果的手段只有基因,而人類基因組中的數據量很小,只有800MB。

連一個小型的 7B LLM 都需要 14GB的存儲空間,相比之下,人類基因中確實沒有太多的數據。

另外,黑猩猩和人類基因組之間的差異約為1%(8MB)。 這一點點差別完全不足以解釋人與黑猩猩之間能力的差異。

而說到後天學習的數據量,一個 2 歲的孩子看到的視覺數據總量是非常小的, 他所有的學習時間約 3200 萬秒(2x365x12x3600)。

人類有 200 萬根光神經纖維,每根神經纖維每秒傳輸大約 10 個字節。 ——這樣算下來總共有 6E14 個字節。

相比之下,LLM 訓練的數據量通常為 1E13 個token,約為 2E13 個字節。 ——所以2歲孩子獲得的數據量只相當於LLM的30倍。

不論大佬們的爭論如何,大型科技公司如Google、Anthropic、Cohere 等正在通過過程監督或類似 RLAIF 的方法創建預訓練大小的數據集,為此耗費了巨大的資源。

所以大家都清楚,合成數據是擴大數據集的捷徑。 在短期內,我們顯然可以利用它創建一些有用的數據。

只是這是否就是通往未來的道路?只能等待時間來告訴我們答案。

參考資料:

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)