新しい VMware Private AI Foundation with NVIDIA により、企業は生成 AI の利用が可能に。データのプライバシー、セキュリティ、管理をさらにサポートするプラットフォームを提供

ラスベガス - VMware Explore - 2023年8月22日- VMware (NYSE: VMW) と NVIDIA (NASDAQ: NVDA) は本日、VMware のクラウド インフラストラクチャ上で稼働する数十万の企業を生成 AI の時代に対応させるための戦略的パートナーシップの拡大を発表しました。

VMware Private AI Foundation with NVIDIA により、企業はモデルをカスタマイズし、インテリジェントなチャットボット、アシスタント、検索、要約などの生成 AI アプリケーションを実行できるようになります。このプラットフォームは、

VMware Cloud Foundation 上に構築され、AI 向けに最適化された NVIDIA の生成 AI ソフトウェアとアクセラレーテッド コンピューティングが提供される完全な統合ソリューションです。

VMware の CEO である Raghu Raghuram 氏は、次のように述べています。「生成 AI とマルチ クラウドは完璧な組み合わせです。顧客のデータは、データセンターエッジ、クラウドなど、あらゆる場所に存在します。NVIDIA と協力することで、企業のデータ プライバシー、セキュリティ、管理に関する懸念に対処しながら、企業が安心してデータに隣接した生成 AIのワークロードを実行できるようになります」

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、次のように述べています。「あらゆる企業が、生成 AI のビジネスへの統合を急いでいます。VMware との協業の拡大は、金融サービス、ヘルスケア、製造業など、さまざまな分野の何十万ものお客様に、独自のデータで構築されたカスタム アプリケーションを使用して、生成 AI の可能性を引き出すために必要なフルスタックのソフトウェアとコンピューティングを提供します」

生成 AI を強化するフルスタック コンピューティング

ビジネス上の利益をより早く達成するため、企業は生成 AI アプリケーションの開発、テスト、展開を効率化しようとしています。McKinsey は、生成 AI が世界経済に年間最大 4 兆 4,000 億ドルの利益をもたらすと予測しています。(1)

VMware Private AI Foundation with NVIDIA により、企業はこの機能を活用して、大規模言語モデルをカスタマイズし、よりセキュアでプライベートなモデルを社内向けに作成し、生成 AI をサービスとしてユーザーに提供し、大規模に推論ワークロードをより安全に実行できるようになります。

このプラットフォームには、企業がコスト効率の高い方法で、自社のプライベートなデータでトレーニングさせた実証済みのモデルを実行できるようにする統合 AI ツールが含まれる予定です。VMware Cloud Foundation(https://www.vmware.com/products/cloud-foundation.html) と NVIDIA AI Enterprise(https://www.nvidia.com/en-us/data-center/products/ai-enterprise/) ソフトウェア上に構築されるこのプラットフォームには、以下のようなメリットが含まれます。

・ プライバシー:データのプライバシーを保護し、安全なアクセスを可能にするアーキテクチャにより、データのある場所に隣接して AI サービスを簡単に実行することが可能。

・ 選択肢:企業は、NVIDIA NeMo(TM) から Llama 2、そしてその先のモデルを構築し実行する場所において、主要な OEM ハードウェア構成や、将来的にはパブリック クラウドやサービス プロバイダーの提供するものを含め、幅広い選択肢を持つことが可能。

・ パフォーマンス:NVIDIA アクセラレーテッド インフラストラクチャ上での実行は、最近の業界ベンチマークhttps://blogs.vmware.com/performance/2023/04/no-virtualization-tax-for-mlperf-inference-v3-0-using-nvidia-hopper-and-ampere-vgpus-and-nvidia-ai-software-with-vsphere-8-0-1.html)で証明されているように、いくつかの使用例においてベアメタルと同等、あるいはそれを上回るパフォーマンスを提供。

データセンター規模:仮想環境における GPU スケーリングの最適化により、AI ワークロードを単一の仮想マシン内の最大 16 基の vGPU/GPU や複数のノードにまたがって拡張できるようになり、生成 AI モデルのファインチューニングと展開が高速化。

・ コスト削減:GPU、DPU、CPU など、すべての演算リソースを最大限に活用することで、全体的なコストを削減し、チーム間で効率的に共有できるリソース環境を構築。

・ ストレージの高速化:VMware vSAN Express Storage Architecture は、パフォーマンスに最適化された NVMe ストレージを提供し、RDMA による GPUDirect(R) ストレージをサポートすることで、CPU を介さずにストレージから GPU に直接 I/O 転送が可能。

・ ネットワークの高速化:vSphere と NVIDIA NVSwitch(TM) テクノロジとの高度な統合により、マルチ GPU モデルを GPU 間のボトルネックなしに実行可能。

・ 迅速な展開と価値実現までの時間 (Time to Value):vSphere Deep Learning VM イメージとイメージ リポジトリは、フレームワークとパフォーマンスに最適化されたライブラリがプリインストールされた安定したターンキー ソリューション イメージを提供し、迅速なプロトタイピング機能を実現。

このプラットフォームは、NVIDIA AI プラットフォームのオペレーティング システムである NVIDIA AI Enterprise に含まれるエンドツーエンドのクラウド ネイティブフレームワークである NVIDIA NeMohttps://www.nvidia.com/ja-jp/ai-data-science/generative-ai/nemo-framework/) を備えており、企業は事実上どこでも生成 AI モデルを構築、カスタマイズ、展開することができます。NeMo は、カスタマイズ フレームワークガードレール ツールキット、データ キュレーション ツール、および事前トレーニング済みモデルを組み合わせて、企業が生成 AI を導入するための簡単で費用対効果の高い迅速な方法を提供します。

NeMo は、生成 AI を本稼働向けに展開するために、TensorRT for Large Language Models (TRT-LLM) を使用しています。TRT-LLM は、NVIDIA GPU 上で最新の LLM の推論パフォーマンスを高速化し、最適化します。NeMo により、VMware Private AI Foundation with NVIDIA は、企業が VMwareハイブリッド クラウド インフラストラクチャ上で独自のデータを取り込み、カスタム生成 AI モデルを構築、実行できるようにします。

VMware Explore 2023 で、NVIDIAVMware は、企業内の開発者が新しい NVIDIA AI Workbench(https://www.nvidia.com/ja-jp/deep-learning-ai/solutions/data-science/workbench/) を使用して、Hugging Face(https://huggingface.co/blog/llama2) で利用可能な Llama 2 のようなコミュニティ モデルを取り込み、それらをリモートでカスタマイズし、VMware 環境に本稼働可能な生成 AI を展開する方法を紹介します。

VMware Private AI Foundation with NVIDIA の幅広いエコシステム サポート

VMware Private AI Foundation with NVIDIA は、NVIDIA L40S GPUhttps://www.nvidia.com/ja-jp/data-center/l40/)、NVIDIA BlueField(R)-3 DPU(https://www.nvidia.com/en-us/networking/products/data-processing-unit/)、および NVIDIA ConnectX(R)-7 SmartNIC(https://www.nvidia.com/ja-jp/networking/ethernet-adapters/) により、企業の LLM のカスタマイズと推論ワークロードを強化するシステムをいち早く提供する Dell Technologies、Hewlett Packard Enterprise、および Lenovo によってサポートされます。

NVIDIA L40S GPU は、NVIDIA A100 Tensor コア GPU と比較して、最大 1.2 倍の生成 AI 推論性能と最大 1.7 倍のトレーニング性能を可能にします。

NVIDIA BlueField-3 DPU は、仮想化、ネットワーク、ストレージ、セキュリティ、その他のクラウド ネイティブな AI サービスの膨大な計算負荷を GPU や CPU から加速、オフロード、分離します。

NVIDIA ConnectX-7 SmartNIC は、世界で最も要求の厳しい AI ワークロードを加速するために、データセンター インフラストラクチャにスマートで高速なネットワークを提供します。

VMware Private AI Foundation with NVIDIA は、両社の 10 年にわたるパートナーシップを基盤としています。両社の共同エンジニアリングにより、NVIDIA AI Enterprise をベアメタルに匹敵するパフォーマンスで実行できるよう、VMware のクラウド インフラストラクチャ最適化されました。相互の顧客は、VMware Cloud Foundation によって実現されるリソースとインフラ管理と柔軟性から、さらなる恩恵を受けることができます。

提供時期

VMware は、VMware Private AI Foundation with NVIDIA を 2024 年初頭にリリースする予定です。

NVIDIA について

1993年の創業以来、NVIDIAhttps://www.nvidia.com/ja-jp/) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、各種産業のデジタル化を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/

VMware について
VMware は、あらゆるアプリケーションに対応したマルチクラウド サービスを提供するリーディング プロバイダーであり、企業によるコントロール下でのデジタル イノベーションを実現します。

VMware のあらゆる活動の中核にあるのは、VMware に与えられた責任と機会をまっとうし、すべての人にとってより安全かつ公平で、持続可能な未来を実現することです。詳細は、こちらのリンクから:www.vmware.com/company

(1)『生成 AIの経済的可能性:次の生産性フロンティア』(https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier#/ McKinsey、2023年

配信元企業:NVIDIA

企業プレスリリース詳細へ

PR TIMESトップへ