ユーザーに近いこの端末側の革命が、生成型 AI の民主化の鍵となります。

出典: ハート・オブ・ザ・マシン

生成 AI がますます有望になり、広く追求されている現在、その広範な実装には端末側で AI をより大きく、より良く、より強力にする必要があります。

画像ソース: Unbounded AI によって生成‌

OpenAIがChatGPTをリリースしてから約10ヶ月が経過した現在、それをきっかけとした生成AIの波により、一般の人も人工知能の魅力を「より身近に」感じるようになりました。大型モデルを搭載したチャット形式のリアルタイム検索エンジンであれ、テキストを入力して画像を生成するペイント ツールであれ、生成 AI はゆっくりと人々の日常の仕事、娯楽、創造的な習慣に侵入し、微妙に変化させてきました。

大型モデルや生成AIとともに、携帯電話メーカーやチップメーカーは「デバイスサイド革命」を鳴り物入りで実行している。今年 5 月、Google は、モバイル デバイス上で実行できる軽量バージョンの Gecko を含む大規模言語モデル PaLM 2 をリリースしました。同じく5月にクアルコムは「ハイブリッドAIはAIの未来」というホワイトペーパーを発表した。 8月にXiaomi Lei Junは大型モデルの完全採用を発表し、携帯電話上で13億パラメータの大型モデルを最初に実行することに成功し、Xiao Aiも大型モデルの機能がアップグレードされた。

なぜ大手メーカーは大規模な汎用 AI モデルや生成 AI モデルを端末、特に携帯電話に急いで搭載するのか、と疑問に思わずにはいられません。スマートフォン、PC、XR、自動車などのスマート端末製品は一般の人々、特に携帯電話に最も近く、私たちはそれらに費やす時間がますます増えていることを私たちは知っています。 2023年4月、市場調査機関エレクトロニクス・ハブは、一部の国のユーザーが1日7時間以上携帯電話の画面を見つめていることを示す報告書を発表した。携帯電話は徐々にスマート ライフの中核へと進化しており、端末側生成型 AI 開発の「温床」を準備しています。

しかし、現在の生成 AI 大型モデルの端末側への傾きは一夜にして起こったものではなく、導入方法はクラウドから端末とクラウドのコラボレーションへの変革を迎えています。

ターミナルとクラウドベースの生成 AI が連携する傾向がますます顕著になってきています

大規模な生成 AI モデルのパラメーターは、多くの場合、数十億、数百億、さらには数千億に達することがわかっており、モデル トレーニングの最適化と実行推論の観点から、インフラストラクチャに非常に高い要件が課されます。当初、このような巨大な AI コンピューティング能力を提供できるのはクラウドだけであったため、メーカーは多くの場合、独自の大規模モデルをクラウドに展開して実行することを選択しました。

ChatGPT を例にとると、そのトレーニングと運用には大量のデータ ストレージとコンピューティング リソースが必要であり、大量のユーザー要求により高いコンピューティング電力コストが発生するため、強力なクラウド サービス プラットフォームが必要になります。ユーザーは、Microsoft Azure OpenAI クラウド サービスを通じて ChatGPT やその他の生成 AI 製品 (CodeX など) にアクセスできます。別の大手クラウド サービス プロバイダーである Amazon も同様の生成 AI クラウド ホスティング サービスを開始しており、ユーザーは API を介して AI21Labs、Anthropic、Stability AI などのスタートアップの事前トレーニング済みの基本モデルにアクセスできます。

明らかに、クラウド サービス プラットフォームは、世界を席巻するこの生成 AI テクノロジーの波を加速し、大規模なモデル メーカーにモデルのトレーニングと推論に必要なコンピューティング能力のサポートを提供しています。しかし、大規模モデルのクラウド推論には高額なコストが必要であり、ユーザー数や利用リクエストの増加に伴い、コストはますます高くなっています。その結果、運用コストが継続的に増加する中、メーカーはクラウド以外の別の方法を見つける必要があります。

時間の経過とともに、大規模モデル圧縮技術 (量子化、ネットワークの枝刈り、知識の蒸留など) がますます豊富になり、効果的になる一方で、携帯電話、PC、XR などのスマート端末デバイス、自動車にはAIが搭載されています コンピューティング能力は増加し続けており、生成型AIを端末に展開するための技術的条件は急速に成熟しています。端末とクラウドが連携する傾向はますます顕著になってきています。

大手テクノロジー企業はこうした変化を鋭く捉え、大規模な生成AIモデルをスマートフォンやその他の端末に導入する一連の試みを行っている。例えば、ChatGPTのiOS版とAndroid版のリリースにより、一般ユーザーが携帯電話を手に取るだけで生成的なチャット会話を体験できるようになり、今後もこのような重要な瞬間が増えていくでしょう。

また、端末側に生成AIを導入・実行することは、クラウドと比較してコスト、セキュリティとプライバシー、動作の信頼性の点でもメリットがあります。

1つ目はコスト面でのメリットです。以前、メディアは、OpenAI が ChatGPT を実行し続けるためだけに 1 日あたり約 70 万米ドルを消費したと報じました。これは、ChatGPT に 2 億米ドル近くが費やされた可能性があることを意味します。このような高額なコストは OpenAI でも耐えられないほど高額であり、利益を上げることはおろか損益分岐点にすることも困難です。端末側は異なり、コストが大幅に削減され、圧縮軽量モデルの導入では、帯域幅、エネルギー消費、ネットワーク伝送などの問題を考慮せず、ハードウェアのコストのみを支払う必要があります。

次に、端末側で生成 AI を実行することで、クラウド上での情報漏洩の潜在的なリスクとは異なり、より確実に個人データを保護できます。これには根拠がないわけではなく、今年4月には半導体部門の従業員がChatGPTを利用する際にデータをクラウド上にアップロードし、機密データが漏洩したことが判明し、その後禁止を発表した。端末操作ではテキストや画像、動画などの情報をクラウドにアップロードする必要がないため、このリスクを回避し、プライバシーの漏洩を防ぎ、セキュリティを強化します。

遅延が少ないことも端末側の大きな利点です。クラウドでは、結果を返す前に処理のためにデータをクラウドに送信する必要がありますが、その処理中にネットワーク送信による遅延が必然的に発生します。端末側はクラウドサーバーやデータセンターに情報をアップロードする必要がなくなり、応答速度が向上し遅延が軽減されます。同時に、ローカル操作はより信頼性が高く、場合によってはオフラインで実行できるため、クラウド サービスやネットワーク接続への依存がある程度軽減されます。

また、端末側にはクラウドよりも豊富なアプリケーション シナリオと状況情報があり、よりパーソナライズされたインタラクションとエクスペリエンスをもたらします。ユーザーは、さまざまなアプリケーション シナリオや同じシナリオ内のさまざまなニーズに合わせてモデルのパラメーターと関数を微調整およびカスタマイズできるため、完全な柔軟性が得られます。

これらの利点により、生成型 AI を端末側に導入する道筋はますます明確になり、クラウドと同様に重要な位置に置かれることが増えています。ホワイトペーパー「ハイブリッド AI は AI の未来」のオフライン記者会見で、クアルコム グローバル バイスプレジデント ホウ ミンジュアン氏が述べたように、「端末側 AI は、ハイブリッド AI アーキテクチャを実現し、生成 AI をより広範囲に拡張するための鍵です」世界。"

ホウ・ミンジュアン

クアルコムはそう言い、実際にそうしました。この生成型AIに関わる端末側革命において、クアルコムは先頭に立って端末側AI革命の中核推進者の一人となり、クラウドと端末が連携するハイブリッドAI開発ルートを形成した。レイアウト。このルートの選択は、端末側 AI および生成 AI テクノロジー機能におけるクアルコムの先見性とリーダーシップをさらに反映しています。

端末側の生成 AI を一歩先にレイアウト

いわゆるハイブリッド AI は主に 2 つの方法で動作します。1 つ目は、いくつかのシナリオでは、コンピューティングは主に端末を中心に行われ、必要に応じてタスクをクラウドにオフロードします。第 2 に、クラウド中心のシナリオでは、端末は、独自の機能に基づいて、可能であればクラウドのワークロードの一部を共有します。クラウドと端末はそれぞれ独自の機能を実行し、相互に支援します。

クラウドのみの場合と比較して、ハイブリッド AI の最大の利点は、さまざまなシナリオや時間で AI ワークロードをより効率的に割り当てて調整し、リソースの利用効率を向上させ、運用コストを削減できることです。

クアルコムのハイブリッド AI レイアウトでは、端末中心であっても、端末の知覚に基づくものであっても、端末とクラウドの協調処理であっても、端末側の AI 機能がハイブリッド AI を強化し、生成 AI が世界規模で拡大できるようにするための鍵であることが強調されています。 . .特に生成 AI の場合、ハイブリッド AI は、携帯電話の ChatGPT のように、端末側のコンピューティング能力を最大限に活用して生成 AI アプリケーションをサポートすることを意味します。

ただし、大規模な生成 AI モデルを端末上に適切にデプロイして実行することは、言うは易く行うは難しであり、実装の前提条件は強力な端末側 AI 機能です。クアルコムは上流のチップメーカーとして、常に端末側 AI のリーダーであり、チップからソフトウェア、アルゴリズム、エコシステムに至るフルスタックの AI 最適化を形成しており、ソフトウェアもハードウェアも妨げられず、端末側の AI の最適化を実現しています。 AI推論の高速化が実現できます。

クアルコム フルスタック AI 最適化

まず、ハードウェアチップレベルでは、初期の主力プラットフォームであるSnapdragon 888と第1世代のSnapdragon 8から、昨年発売されたハイエンドの第2世代Snapdragon 7と主力の第2世代Snapdragon 8に至るまで、AI機能は継続しています。機能強化に伴い、端末側の AI 機能もそれに応じて向上します。その中でも重要な役割を果たしているのが、常にアップグレードされているQualcomm AI Engine(現在第8世代)であり、そのHexagonプロセッサ、Qualcomm Adreno GPU、Qualcomm Kryo CPUは、端末側でAIアプリケーションを効率的に実行し、端末側のAIユーザーを最適化するように設計されています。異種コンピューティング手法、経験。

今年10月に発売される第3世代「Snapdragon 8」ではAIの演算能力がさらに向上すると予想されており、端末側でどのようなAI機能をサポートできるのか、ますます楽しみです。

継続的なハードウェア アクセラレーションに加えて、端末側 AI の最大の課題はソフトウェアにあり、さまざまなニューラル処理モデルを確実に実行できるようにする必要があり、計算が十分に高速かつ効率的でなければなりません。 Qualcomm AI ソフトウェア スタックは、開発者がハードウェア上で AI アプリケーションをより効率的に作成、最適化、展開できるように支援し、アプリケーションの 1 回限りの開発と複数回の展開の効果を実現します。以下の図からわかるように、このソフトウェア スタックは、サポートされている AI フレームワーク、推論ソフトウェア開発キット、開発者ライブラリとサービス、システム ソフトウェア、オペレーティング システムを含む複数のレベルで開発効率を向上させます。

クアルコム AI ソフトウェア スタック

また、アルゴリズムやモデルの開発においても、Q-SRNetモデルをベースとしたアルゴリズムやINT4量子化ソリューションなど、精度を犠牲にすることなく効率の向上に努めています。たとえば、Snapdragon 8 Gen2 は初めて INT4 AI 精度フォーマットをサポートし、INT8 と比較してエネルギー効率が 60% 向上し、AI 推論パフォーマンスが 90% 向上しました。

クアルコムは環境レベルでも努力を続けており、携帯電話における技術的優位性は、自動車、PC、XR、モノのインターネットなどの他の端末にも拡張できます。同時に、クアルコムは、さまざまな分野に分散したIPや技術をベースに、PC分野とマイクロソフト、XR分野とメタなど複数のエコシステムをまたがる緊密な連携を行い、迅速な大規模展開を実現します。良い生態協力。

クアルコムの強力かつ包括的な端末側 AI 機能、特に生成 AI モデル アーキテクチャの潜在的な変更に対応できる AI ハードウェア アクセラレーション アーキテクチャとソフトウェア スタックは、端末側 AI 推論と生成 AI の端末への展開に向けた強固な基盤を築き、その技術基盤により携帯電話などの端末デバイス上で生成 AI アプリケーションを実行できるようになりました。同時に、クアルコムは生成 AI の探求という点でも前向きです。

生成 AI モデルの圧縮方法に関する初期の研究から、VAE を使用してビデオおよび音声コーデックを作成し、モデル サイズを 1 億パラメータ以下に制御することから、生成 AI を使用して無線分野のチャネル モデルを置き換えて携帯電話の通信効率を向上させることに至るまで、クアルコムは、生成 AI の進歩を常にターゲットにしています。

過去 6 か月間、クアルコムが携帯電話上で大規模な生成 AI モデルを実行しているというニュースは、10 億パラメータのヴィンセント グラフ モデルの安定拡散や 15 億パラメータのアルゴリズムの実行など、激しい議論を引き起こしました。イメージ生成イメージ モデル ControlNet。クアルコムは、モバイル デバイスでの AI ペイント機能の実証に加えて、デジタル ヒューマンなどの他の技術方向への生成 AI 機能の拡張もさらに検討しています。

*携帯電話上の ControlNet は 12 秒以内にレンダリングを完了します。 *

今後、クアルコムが蓄積してきた携帯電話機の運用経験とSoCチップの演算能力のさらなる向上をもとに、より多くのパラメータモデルの端末運用が目前に迫っています。クアルコムの製品管理担当シニアバイスプレジデント兼AI責任者であるジアド・アスガー氏はインタビューで、100億個のパラメータをサポートできる生成AIモデルが今年携帯電話上で実行される予定だと語った。さらに、来年にはMetaと協力してLlama 2のモバイル版をリリースする予定だ。これらにより、生成 AI の将来はより有望なものになります。

私たちの考えでは、端末側 AI の最大の意義は、大規模な生成 AI モデルをみんなの手元に表示することであり、これは生成 AI の大規模な拡張と普及にさらに有益であり、ビジネス上のメリットも生み出すことができます。生成 AI ペインティングを例にとると、少し前に WeChat モーメントで人気になった Miaoya カメラのようなものであれば、携帯電話上で生成 AI を実行すると、計り知れないトラフィック効果が得られます。

しかし、クアルコムの生成 AI のレイアウトは、一時的なトラフィック効果を目的としたものではありませんが、携帯電話、モバイル PC、XR ウェアラブル デバイス、スマート ホーム、自動車、その他の生成 AI アプリケーションの可能なキャリアの助けを借りて、より近い方法で生成 AI を配置しています。により、より多くの人が新しい AI エクスペリエンスを迅速かつ便利に楽しめるようになります。ホワイトペーパーの表紙にあるように、「AI を手の届くところに」。クアルコムはこれを遠くないことで実現します。

## 結論

ChatGPT 以来、生成 AI は止められない開発トレンドになっています。私たちの生活に大きな利便性をもたらすため、生成 AI の普及を加速することが急務ですが、幸いにもクアルコムはその基礎を築きました。クアルコムが 15 年以上にわたって AI 分野、特にモバイル コンピューティングの分野に深く関与し、深い技術的リーダーシップを形成していることがわかりました。現在、Snapdragon および Qualcomm プラットフォームを搭載したスマート端末デバイスが世界中に数十億台あり、端末側の AI 試行錯誤機能と生成 AI アプリケーションの可能性が比類のない高みに達しています。

同時に、端末側AIのエンパワーメントをより広く深くし、生成AIをより多くの分野やシナリオに拡張することで、一般ユーザーにより多様で楽しく便利なAI体験を提供するだけでなく、より多くのAIを生み出す可能性があります。スマート ターミナル エコシステム パートナーに市場機会をもたらし、その価値を真に解き放ちます。

クアルコムにとって、端末側の生成 AI は広範囲にわたる重要性を持っています。中国サービス見本市のデジタル貿易発展動向およびフロンティアサミットフォーラムで、クアルコムチャイナの孟彬会長が基調講演を行い、5G、AI、インターネットなどのテクノロジーを共同で探索するためのグローバルエコシステムとの緊密な協力を強調した。新しいモバイル アプリとエクスペリエンス。現在最前線にある生成AI技術として、その強さ、量、難易度が実現できるかどうかを大きく左右します。

端末側での生成 AI の運用は不可欠であり、クアルコムのようなエコロジーでユーザー対応の企業もその強みに基づいて目立つでしょう。

参考リンク:

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)