ウェブマスターの家が7月26日に報じたところによると、スタンフォード大学の研究者らは、言語モデルの事前トレーニング時間を半分に短縮できる「Sophia」と呼ばれる新しいオプティマイザーを開発したという。 Adam オプティマイザーと比較して、Sophia は言語モデルの問題をより速く解決できます。 Sophia は、2 次オプティマイザーの前提条件として、対角ヘッセ行列の軽量推定を使用します。更新後、勾配の平均を取得し、推定されたヘッセ行列の平均で割ることにより、要素ごとのクリッピングが実行されます。さらに、Sophia は言語モデリング タスクにおける大きなパラメーターの変更にも適応できます。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)