3月27日、CFMS|MemoryS 2026サミットが「サイクルをナビゲートし、価値を解き放つ」をテーマに深圳で開催されました。このサミットには、ストレージ、CPU/GPU、AIビッグデータモデル、自動車分野の中核となるグローバル産業チェーン企業が集結し、ストレージメーカー、アプリケーション端末プロバイダー、プラットフォームベンダーが、AI時代において効率的なエコシステムを共同で構築するために、新しい技術や製品をどのように統合できるかを探りました。クアルコム中国のAI製品技術責任者である万維興氏がサミットに招待され、基調講演を行い、インテリジェントエージェント向けのAIイノベーションの波の中で、エッジコンピューティングがパーソナルAIの未来の構築をどのようにリードしていくかについて語りました。
万維興氏は、パーソナルAIはエッジから始まると指摘しました。私たちは、AIとユーザーを中心としたマルチ端末体験へと移行しています。エッジ側のインテリジェントエージェントは、低遅延、優れたパーソナライゼーション、そしてシームレスなユーザー体験を提供できるようになります。クアルコムは、統一されたテクノロジーロードマップを通じて、幅広い製品にわたる高性能かつエネルギー効率の高いハードウェアおよびソフトウェア技術基盤を提供し、端末やシナリオを問わずプラットフォームレベルの機能を提供することで、パーソナルAIを強化します。

さらに、業界チェーンにおける優れた企業やリーダーを表彰し、業界のベンチマークを強調するため、今回のサミットではMemoryS Awardsも授与されました。Qualcommは、スマートフォンからパーソナルAIやスマートウェアラブル、PC、自動車、エッジネットワーク、産業用IoTといった幅広いエッジ分野へと事業を拡大し、「エッジインテリジェンスエコシステム」の構築を主導し、IoTにおける低遅延と高セキュリティを実現するためにAIのローカライズを推進したことが評価され、「AIエコシステムへの傑出した貢献賞」を受賞しました。

以下は万維星氏の演説全文です。
おはようございます、ご来賓の皆様、そして友人の皆様。本日の私のテーマは「インテリジェントエージェントのためのAIイノベーションをリードする:エッジにおけるパーソナルAIの未来の構築」です。まず、産業アプリケーションにおけるAIの進化段階を見ていきましょう。最初の段階は知覚AIと呼ぶことができます。知覚AIは馴染み深いもので、音声信号などのマルチメディア信号の理解、画像の分類と認識、インテリジェントノイズリダクションなどの従来分野の活用などが含まれます。この種の知覚AIは、ほとんどのエッジプラットフォームですでに商用化されています。典型的な例は、知覚AIの実装によって恩恵を受けている携帯電話分野の計算写真です。
第 2 段階は生成型 AI です。この段階の特徴は、大量のデータを用いた広範な事前学習に基づき、教師あり条件下で特定の問題を解決できる AI です。例としては、OpenAI の ChatGPT モデルやテキストから画像への変換モデルなどがあります。第 3 段階はエージェント AI です。エージェント AI と生成型 AI の重要な違いは、エージェント AI は教師なし環境でユーザーの意図を自律的に理解し、行動を起こし、意思決定を行うことができるため、やや複雑なタスクの解決に役立つことです。第 4 段階は物理 AI です。この段階では、AI が物理世界を真に理解し、現実世界の物理法則に基づいてフィードバックと出力を提供できるようになります。この技術はまだ応用の初期段階にあります。今年のバルセロナで開催されたモバイルワールドコングレス (MWC) をご覧になった方は、物理 AI の探求における業界の進歩を多く目にされたことでしょう。
現在、業界は主に第2段階と第3段階に注力していることがわかります。次に、生成AIの開発動向を見ていきましょう。重要な点は、エッジデバイス上で動作する生成AIモデルの知能が急速に向上していることです。まず、エッジデバイスがサポートするモデルパラメータの数が劇的に増加しています。例えば、携帯電話ではすでに10億から100億のパラメータを持つ大規模モデルを実行でき、PCでは130億から200億のパラメータを持つモデルを実行できます。車両では、サポートできるモデルパラメータの数はさらに多く、200億から600億に達する可能性があります。
ARグラスや低消費電力デバイスなどの小型デバイスでは、10億から40億ものパラメータを持つモデルをエッジ上で完全に実行できるようにしました。エッジモデルのパラメータ数はクラウド上の大規模モデルに比べるとまだ比較的少ないものの、業界の様々な技術革新によって大規模エッジモデルの規模は拡大しています。例えば、メモリ帯域幅の拡大や量子化ビット幅技術の最適化によってモデルサイズをさらに圧縮できるため、端末デバイスでよりリッチなモデルをサポートできるようになります。
モデルの性能という観点から、2つの点に注目しました。まず、昨年、推論機能を備えた大規模モデルをエッジデバイスに展開することに成功しました。次に、これらの大規模エッジモデルでサポートされるコンテキスト長も、さまざまなシナリオで増加しています。約3年前は、エッジコンテキスト長は一般的に1k~2kに制限されていましたが、2年前にはほとんどのシナリオで2k~4kに拡大し、昨年はパートナーとのシナリオ検討を通じて、Qualcommはこの範囲を4k~8kにまで拡大しました。特定のシナリオでは、32k~128kのコンテキスト長もサポート可能です。
デバイス側でより長いコンテキストを展開すると、課題が生じます。コンテキストが長くなるにつれて、キーバリューキャッシュの需要が増加します。これは、デバイスにモデル全体を展開する際に、メモリ要件の増加とメモリ帯域幅の要求の増加に直接つながります。モーダルの進化に関して、デバイスモデルは、単純なテキスト間、テキストから画像、画像から画像への入力から、音声、テキスト、写真、ビジョン、センサー入力を含むよりリッチなマルチモーダルアプローチ、さらにはフルモーダルへと移行していることもわかっています。昨年9月のSnapdragonサミットで、Qualcommは、デバイス上で50億のパラメータを持つフルモーダルモデルを実行するためにパートナーと協力し、ユーザーが自然言語で対話できるようにしたことを実証しました。
トレンドを紹介したところで、エッジデバイスに生成型AIを導入する際のメリットと課題についてお話ししましょう。エッジデバイスで生成型AIを実行する最大の利点はパーソナライゼーションにあると私は考えています。個人のデータはすべてエッジ上に存在し、新しいデータのソースもエッジ上にあります。データ生成元で直接推論を実行することは非常に自然なプロセスであり、ユーザーのプライバシーもより良く保護されます。さらに、エッジ生成型AIはコスト面で優位性があり、ネットワーク接続を必要としないため、ユーザーはいつでもどこでも生成型AIが提供するサービスを利用できます。課題については、いくつか強調しておきたい点があります。まず、エッジメモリの制限です。モデルサイズを圧縮する多くの技術的手段がありますが、メモリの制限が最終的に実行可能なモデルのサイズの上限を決定し、この上限はエッジAIの機能の上限も意味します。
第二に、デバイス上のメモリ帯域幅も制限されています。周知のとおり、自己回帰ネットワークの重要な特徴の一つは、メモリ帯域幅による制限です。帯域幅が制限されると、大規模モデルがトークンを出力する速度に影響し、特定のシナリオにおけるユーザーエクスペリエンスに悪影響を及ぼします。第三に、多くの端末デバイス、特に携帯電話のような高度に統合されたデバイスでは、エネルギー効率が非常に重要であることを強調したいと思います。デバイスの過熱を防ぐため、AI推論中に温度制御制限が作動しないようにする必要があります。したがって、メモリサイズ、帯域幅、パフォーマンス、エネルギー効率のバランスを取ることは、当社と業界パートナーが解決に取り組んでいる課題です。
次に、インテリジェントエージェントAIのトレンドを見ていきましょう。最も重要な点は、デバイス上のインテリジェントエージェントとユーザー間の深い適応をいかに実現するかということです。最初の重要なトレンドは、デバイス上のインテリジェントエージェントです。その核心は、低遅延、優れたパーソナライゼーション、そして一貫してシームレスなユーザーエクスペリエンスの提供にあります。2つ目は、エージェントの特化です。当初、人々はほとんどの問題を解決できる統一モデルを求めていましたが、現在はタスク特化へと移行し、特化したインテリジェントエージェントやマルチエージェントフレームワークを通じて問題を解決しています。3つ目のトレンドは、ユーザーエクスペリエンスにとって最も重要だと私が考える、高度なパーソナライゼーションです。デバイス上のインテリジェントエージェントは、もはや過去の単純な会話型音声アシスタントではなく、ユーザーの意図、コンテキスト、そしてユーザーの認識情報を完全に理解できる、真に理解力のあるAIアシスタントへと進化しています。
インテリジェントエージェントAIの基本モジュールを詳しく見ていきましょう。インテリジェントエージェントは、継続的に動作する閉ループシステムと考えることができます。このシステムには、知覚、理解、推論といった複数の基本モジュールに加え、メモリ、ツール、さらには実行システムも含まれています。これらのモジュールが統合されることで、インテリジェントエージェントはユーザーの意図を理解し、ユーザー入力を処理し、情報を複数のタスクに分解し、目標を自律的に達成することができます。さらに重要なのは、エッジにおけるインテリジェントエージェントは、継続的に知覚、思考、行動するユーザーエクスペリエンスを提供できる点です。
AIエージェントは、新しいデジタル世界におけるインタラクションのパラダイムを根本的に変えつつあります。クアルコムは過去2年間、「AIは新しいUIだ」と述べてきました。つまり、AIは新しいユーザーインターフェースなのです。将来、ユーザーは単一のアプリや機能を中心に操作するのではなく、音声やテキストを使ってインテリジェントエージェントと自然にやり取りするようになるでしょう。エージェントはユーザーの入力を理解し、タスクを分解して計画します。Snapdragonプラットフォーム上で動作する大規模なオンデバイスモデルと組み合わせることで、私たちのタスクを解決できます。また、クラウド上の汎用モデルを通じて、AIはエンターテインメント、生産性向上ツール、産業アプリケーションなど、幅広いシナリオで活用できるようになります。
これまで、パーソナルAIは主にスマートフォンを中心に展開され、ヘッドホン、メガネ、時計などの他のデバイスはスマートフォンに接続するアクセサリーとして機能していました。今後は、AIとユーザーを中心としたマルチデバイス体験へと移行していくでしょう。つまり、AIは特定のデバイスに縛られることなく、複数のデバイス間の柔軟な連携を通じてユーザーの意図を理解し、タスクを実行するようになります。AIデバイスはAIの単なる媒体となり、パーソナルAI体験の未来は、より継続的でシームレスなユーザー体験の創造へと間違いなく進化していくでしょう。私たちの見解では、パーソナルAIはデバイスレベルから始めるべきです。なぜなら、デバイスはユーザーに最も近く、ユーザーのすべての情報を保持しており、ユーザー個々の意図、状況、嗜好を即座に認識できるからです。
しかし、パーソナルAIは単独で動作するものではなく、ハイブリッドAIアーキテクチャを介して、デバイス、ローカルエッジ、ネットワークエッジ、中央クラウド間で連携して動作します。クアルコムは昨年、第5世代Snapdragon 8 UltraモバイルプラットフォームやSnapdragon X2 Eliteコンピューティングプラットフォームなど、パーソナルAIのシナリオをサポートするのに十分な処理能力を提供する複数の製品をリリースしました。これらのSnapdragonプラットフォームを搭載した多くの商用デバイスは既に市場に出回っています。
先ほどエンドポイント側について説明しましたが、データセンター分野では、今年のMWCでQualcomm AI200およびAI250チップを搭載したアクセラレータカードとラックシステムも発表しました。業界トップクラスの総所有コスト(TCO)で、高速データセンター向け生成型AI推論のためのラッククラスのパフォーマンスと優れたメモリ容量を提供します。特にAI250は革新的なメモリアーキテクチャを採用し、AI処理ワークロードの効率性を飛躍的に向上させます。
最後に、クアルコムのAI戦略全体を要約したいと思います。スマートフォン、ヘッドホン、ウェアラブル端末、PCといった家電製品から、自動車、ロボット、そして次世代データセンターに至るまで、当社はすべての製品に統一されたAIアーキテクチャを搭載しています。この戦略の中核は、統一された技術ロードマップを通じて、高性能かつエネルギー効率の高いハードウェアとソフトウェアの基盤を提供できる点にあります。これにより、クアルコムのAI機能は、単一の製品やチップにとどまらず、大規模で、複数のデバイスやシナリオに対応するプラットフォームへと拡張することが可能になります。
本日のプレゼンテーションは以上です。皆様、ありがとうございました。