【元記事をASCII.jpで読む】

 Google Cloudが2024年4月10日、11日に米ラスベガスで年次イベント「Google Cloud Next '24」を開催した。昨年は“生成AIブーム”を受けて、その構想や戦略が語られた同イベントだが、今年は多くの顧客事例も紹介しながら、生成AIの「実装」と「活用」が進んでいることを印象付ける内容となった。

 今年のGoogle Cloud Nextでは、AI処理への最適化をさらに進めた新インスタンスから、モデルの構築と運用サービスまで、幅広い発表が行われた。Google Cloud テクノロジー部門 統括技術本部長の寳野雄太氏が、現地で会期中の発表内容をまとめるセッションを行ったので、そのポイントを中心にまとめる。

第5世代のTPU、Google初のArmベースカスタムCPUなど基盤を固める

 Google Cloudは、世界40のリージョンを結ぶネットワーク(海底ケーブルを含む)、AIプラットフォームとAIモデルを基盤として、5つの領域(Data Cloud、Modern Infrastructure Cloud、Collaboration Cloud、Security Cloud、Developer Cloud)のサービスで構成される。今回の会期中には、日米間を結ぶ新たな太平洋海底ケーブルの構築に10億ドルを投じることを発表している。

 Google Cloudの生成AIポートフォリオの基盤となるのが、AI用途に適した形でハードウェアとソフトウェアを組み合わせたアーキテクチャ「AI Hypercomputing Architecture」だ。これにより、動的なリソース確保とコスト最適化、柔軟なユースケースの選択肢、高いパフォーマンスの実現を狙う。

 上記アーキテクチャハードウェアレイヤーでは、「NVIDIA H100 GPU」を利用できるA3インスタンスのマルチノードGPU間帯域幅を増強した「A3 Mega」インスタンスが投入される。そのスループットは1.6Tbpsと従来比(A3比)でおよそ2倍で、「複数のGPUノードで並列処理するLLM(大規模言語モデル)においてスループットは重要」だと寶野氏は説明した。6月から東京リージョンでも利用可能になることで、国産LLMを開発する企業には朗報になると見ている。

 そのほか、Google Cloudの第5世代TPUとなる「TPU v5p」の一般提供開始(GA)や、H100をさらに大きく上回る性能を持つ次世代GPUNVIDIA Blackwell」(B200、GB200)の2025年上旬からの提供開始予定なども発表された。

 さらに今回、Google Cloud CEOのトーマス・クリアン氏が大々的に発表したのが、Google初のArmベースカスタムCPUである「Google Axion」だ。クリアン氏は、Axionでは「Googleのシリコンに関する専門知識と、Armによる最新のコンピュートコアデザインを組み合わせた」と述べ、パブリッククラウド市場で現在提供されている最速のArmベースインスタンス比で30%の性能向上、現行世代のx86インスタンス比で50%の性能向上、さらに最大60%の電力効率向上が実現すると紹介した。また、既存のArmベースインスタンス比でも30%の性能向上が実現しているという。このAxionは、すでに「BigQuery」や「Spanner」といった同社のサービスインフラで使われているという。

 そのほか寳野氏は、需要の高騰によりGPUリソースの確保が困難になっている課題を解消する「Dynamic Workload Scheduler」(一般提供開始)、インテルのDAOS(分散型非同期オブジェクト・ストレージ)をベースとする低遅延の並列ファイルシステム「Parallelstore」(パブリックプレビュー)、高パフォーマンスの「Hyperdisk」を最大2500インスタンスマウント可能(Read Only)にして機械学習ワークロードに最適化したブロックストレージ「Hyperdisk ML」といった、新たなサービスも紹介した。

 またアプリケーション開発の領域では、生成AIがコーディングを支援する「Gemini Code Assist」の新機能として「Repository-wide Context」(プライベートプレビュー)を紹介した。最大100万トークンをサポートするGoogleのマルチモーダルモデル「Gemini 1.5 Pro」を活用し、コードリポジトリ全体のコンテキストを考慮したうえでコーディングアシストするという。寶野氏は「開発者の生産性が上がる、かなり革命的な機能」だと述べた。

生成AIエージェントを構築する「Vertex AI Agent Builder」を発表

 寶野氏は、生成AIをめぐる現状について「2023年から2024年の年初にかけてのテーマは『PoC(実証)から実践に移ること』だった」と述べる。「実践」のためには、単にLLMなどの生成AIモデルを提供するだけでは不十分であり、ユーザーの目的にそれぞれ対応した生成AIアプリケーション=「エージェント」を構築できる生成AIプラットフォームであることが重要である。

 基調講演でクリアン氏は、カスタマー、エンプロイー(従業員)、クリエイティブ、データ、コード、セキュリティと、エージェントの6つのパターンを紹介し、カスタマーエージェントの実践例としてメルセデス・ベンツの事例を紹介した。

 今回は、Google Cloudの生成AIプラットフォーム「Vertex AI」の新たな目玉機能として、生成AIエージェントを構築する「Agent Builder」が追加された。Vertex AIが持つほかの機能、たとえば利用モデルを既存のもの選択できる「Model Garden」や、独自モデルを構築できる「Model Builder」とは異なり、それらのモデルを使ってアプリケーションを構築するうえでのカスタマイズ機能を提供する。

 具体的には、生成AIの会話フローを制御して安全な対話型エージェントを実現する「Playbook Agent」(パブリックプレビュー)、LLMの回答にGoogle検索による情報ソースのリンクや検索の推奨結果を付与する「Grounding on Google Search」(パブリックプレビュー)、これと同様に社内データを使ったグラウンディングを行う「Grounding on Vertex AI Search」(一般提供開始)の各機能が発表されている。

 Grounding on Google Search機能について、クリアン氏は、LLMのGeminiの回答を「世界で最も信頼されている情報」であるGoogle検索でグラウンディングできるようになることで「(Geminiの)回答品質を改善し、ハルシネーションを大幅に減らすことができる」と述べた。

 Google検索によるグラウンディングの利用例として、寶野氏は、旅行業界におけるユースケースを紹介した。旅行予約に関する質問回答を行うエージェントを作成した場合、予約処理だけでなく、「目的地の観光情報が知りたい」といった質問にも回答できるようになる。「非常にニーズの高い機能」だと寶野氏は述べる。

 さらに、RAGや検索の仕組みを自社開発する場合の構成要素を提供する「DIY Search and RAG」サービスも紹介した。たとえばRAGの正確性を高める機能、グラウンディングしたレスポンスを生成する機能などを、APIとして提供する。

「Gemini 1.5 Pro」モデルの追加、Geminiモデルのチューニング機能なども

 Vertex AIのModel Garden、Model Builderのそれぞれでも、アップデートが発表された。

 まずModel Gardenにおいては、ファーストパーティ(Google自身が開発する)のLLMであるGeminiのモデルとして、「Gemini 1.0 Pro」(一般提供開始)と「Gemini 1.5 Pro」(パブリックプレビュー)が新たに利用できるようになった。また、テキストにより画像を生成/編集できる「Imagen 2」、エンベディングを行う「Embeddings API」の双方が一般提供を開始した。

 寳野氏によると、日本ではテレビ局のTBSがGemini 1.5 Proを使って、動画へのメタデータ付与作業を自動化しているという。また楽天がImagenを使って、出店者の製品写真をECで“映える”画像に自動変換しているそうだ。

 またサードパーティのモデルでは、Anthropicの「Claude 3.0」などが追加された。オープンソースモデルでは、Googleの「Gemma」やその軽量版「CodeGemma」などが一般提供開始となっている。また、LLMリポジトリサービスの「Hugging Face」と連携して、Vertex AIから数クリックで、13以上のオープンモデルを利用できるようになった。

 Model Builderにおいては、Geminiモデルのチューニング機能「Supervisedチューニング」(パブリックプレビュー)や、プロンプトデザインを効率的に行える「プロンプト管理」の機能拡張が発表された。

 プロンプト管理では、プロンプトのバージョン管理、ノート、プロンプトが生成した結果を並べて比較できる機能などが加わる(パブリックプレビュー)。寳野氏は「プロンプトは精度を左右するため、プロンプトの管理は課題になっている」と説明する。モデルの定量的な評価を行う機能も加わっており、これを組み合わせて性能の高いプロンプトのバージョンはどれかを検証するといったことが可能になる。

* * *

 基調講演の最後に、クリアン氏は「(今回は)AIスタックのすべてのレイヤーで新機能を発表した」と述べた。Google Cloudが提供するAIの特徴は「オープン性」であり、「トレーニングとサービスのチップ、モデル、開発環境、データベースアプリケーションとすべてで顧客に選択肢を提供する」と明言した。人材面では20万人規模の生成AIトレーニングにコミットしていると語る。

 クリアン氏は、AI技術をめぐって「われわれは重要な転換点にある」と述べたうえで、「ともに、真にオープンなAIプラットフォームを基盤とする生成AIエージェントの時代を作っていこう」と参加者に呼びかけた。

「生成AIはPoCから実践へ」Google Cloud Next '24で幅広い発表