概 要

  • 本日より提供するHPEの包括的な生成AIポートフォリオには、AIプロジェクトの加速に必要なコンピュート、ストレージ、ソフトウェア、ネットワーキング、コンサルティングサービスのすべてを網羅する2つのソリューションが含まれます。

  • 生成AIの概念実証の本番アプリケーション移行を支援する、HPE Machine Learning Inference Softwareテクノロジーのプレビューおよび既に提供中のエンタープライズRAGリファレンスアーキテクチャを紹介します。

  • HPE は、NVIDIA Blackwell アーキテクチャに基づく製品を将来的に開発します。

[米国テキサス州ヒューストン - 2024年3月18日]

HPEは、NVIDIA GTCイベントにおいて、生成AI、ディープラーニング深層学習)、機械学習アプリケーションの実装を促進する、業界で最も包括的なAIネイティブポートフォリオのアップデートを発表しました。

アップデートは以下のとおりです:

HPEの社長兼CEOであるアントニオ・ネリ(Antonio Neri)は次のように述べています。

「生成AI に対する期待に応え、AIのライフサイクル全体を効果的に網羅するためには、ソリューションはその設計がハイブリッドハイブリッド・バイ・デザイン)である必要があります。AI モデルのトレーニングやチューニングはオンプレミス、コロケーション施設、パブリッククラウドで実行し、エッジで推論を実行するので、AI はハイブリッドクラウドのワークロードです。HPEとNVIDIAは、長年にわたり共にイノベーションに取り組んできた歴史があり、お客様による生成AIの開発から導入に至る取り組みの加速を支援する、共同設計のAIソフトウェアとハードウェアソリューションの提供を継続します」

NVIDIA社 の創業者/CEO であるジェンスン フアン (Jensen Huang)氏 は、次のように述べています。

「生成AIは、コネクテッドデバイス、データセンター、クラウドからのデータをインサイトに変え、様々な業界のブレークスルーを促進することができます。HPEとの拡大するコラボレーションは、エンタープライズが事業の変革に向けた新しいAIアプリケーションの開発と実装によって卓越した生産性の実現を可能にします。」

本日より提供する2つの包括的な生成AIポートフォリオ

スーパーコンピューティングを活用した生成AIのトレーニングとチューニング

HPEがHPCの国際会議SC23で発表した、生成AI向けスーパーコンピューティングソリューション( https://www.hpe.com/jp/ja/collaterals/collateral.a50009753jpn.html )の受注を開始しました。本ソリューションは、大規模なAIモデルの開発とトレーニングのための事前設定と検証済みのフルスタックソリューションで、最大168個のNVIDIA GH200 Grace Hopper Superchipを搭載でき、生成AIおよびディープラーニングプロジェクトの加速を支援します。

本ソリューションは、大手企業、研究機関や政府機関が、AI/MLソフトウェアスタックを使用してモデル開発プロセスを効率化し、LLM、レコメンダーシステム、ベクターデータベースなどの生成AIおよびディープラーニングプロジェクトの加速を支援します。設置およびセットアップのサービスとともに提供される本ターンキーソリューションは、AI研究機関や大手企業での利用を想定して設計されており、Time-to-Valueの向上および トレーニングにかかる時間を2~3倍速めることが可能です。詳細は、HPEの生成AI向けスーパーコンピューティングソリューション( https://www.hpe.com/jp/ja/hpe-supercomputing-solution-gen-ai.html )をご覧ください。

エンタープライズクラスの生成AIチューニングと推論

HPEがDiscover Barcelona 2023イベントでプレビューを発表した、生成AIのためのエンタープライズコンピューティングソリューションの提供を開始しました。HPE GreenLakeを通じた柔軟で拡張性に優れた従量課金制または通常の購入形態で導入することもできます。NVIDIAとの共同エンジニアリングによる事前設定済みのファインチューニングおよび推論のための本ソリューションは、生成AIアプリケーションの構築に必要なコンピュート、ストレージ、ソフトウェア、ネットワーキング、コンサルティングサービスを提供するもので、立ち上げにかかる時間とコストの削減に寄与するよう、設計されています。

HPEとNVIDIAの高性能AIコンピュートクラスタとソフトウェアで構成される本ソリューションは、モデルの軽微なファインチューニング、RAG、スケールアウト推論に最適です。本ソリューションでは、ファインチューニングにかかる時間は、ノード数に応じてリニアに短縮され、700億パラメータのLlama 2モデルのファインチューニングは、16ノードのシステムでは6分で完了(*1)します。このスピードとパフォーマンスにより、バーチャルアシスタント、インテリジェントなチャットボット、エンタープライズ検索などのAIアプリケーションによるビジネスの生産性向上の価値実現までの時間を短縮することができます。

HPE ProLiant DL380a Gen11サーバーを基盤とする本ソリューションは、NVIDIA GPUNVIDIA Spectrum-X Ethernetネットワーキングプラットフォーム、NVIDIA BlueField-3 DPUで事前構成されています。本ソリューションは、HPEの機械学習プラットフォームとアナリティクス用ソフトウェア、および生成AIモデルの推論を最適化する新しいNVIDIA NIMマイクロサービスを備えたNVIDIA AI Enterprise 5.0ソフトウェア、NVIDIA NeMo RetrieverおよびデータサイエンスとAIライブラリによって強化されています。

AIのスキルギャップへの対応にあたって、HPE Servicesのエキスパートが、適切なモデルチューニング技術の適用を含むソリューションの設計、導入、管理を支援します。本ソリューションの詳細は、HPEの生成AI向けエンタープライズコンピューティングソリューション( https://www.hpe.com/jp/ja/hpe-enterprise-computing-solution-gen-ai.html )をご覧ください。

生成AIの概念実証の本番アプリケーション移行を支援するソフトウェア

HPEとNVIDIAは、エンタープライズがAIとMLの概念実証を実稼働アプリケーションに発展させ、次のステップに進む支援につながるソフトウェアソリューションに取り組んでいます。HPEのお客様にテクノロジープレビューとして提供される新しいHPE Machine Learning Inference Softwareにより、MLモデルを迅速かつセキュアに大規模展開できるようになります。新しいソフトウェアはNVIDIA NIMと統合され、事前に構築されたコンテナを使用してNVIDIA最適化された基盤モデル(ファウンデーションモデル)を提供します。

HPEは、プライベートデータ(公開不可のデータ)を使用する生成AIアプリケーションの迅速な構築と展開を支援する、NVIDIA NeMo RetrieverマイクロサービスアーキテクチャをベースとするエンタープライズRAGリファレンスアーキテクチャを、本日より提供開始します。新しいリファレンスアーキテクチャは、HPE Ezmeral Data Fabric Software( https://www.hpe.com/jp/ja/hpe-ezmeral-data-fabric.html )とHPE GreenLake for File Storage( https://www.hpe.com/psnow/doc/a50007879jpn )による包括的なデータ基盤で構成され、カスタマイズされたチャットボット、ジェネレーター、コパイロットを作成するためのブループリントを提供します。

データの準備、AIのトレーニング、推論を支援するにあたって、本ソリューションには、HPE Ezmeral Unified Analytics Software( https://www.hpe.com/jp/ja/hpe-ezmeral-unified-analytics.html )のオープンソースツールおよびソリューションと、HPEのAIソフトウェアであるHPE Machine Learning Data Management Software( https://www.hpe.com/jp/ja/hpe-machine-learning-data-management-software.html )、HPE Machine Learning Development Environment Software、新しいHPE Machine Learning Inference Software( https://www.hpe.com/jp/ja/hpe-machine-learning-development-environment.html )が含まれます。HPEのAIソフトウェアは、生成AI向けのHPEのスーパーコンピューティングおよびエンタープライズコンピューティングソリューションの両方で利用でき、生成AIワークロードを管理するための一貫した環境を提供します。

NVIDIA Blackwellプラットフォーム上に次世代の製品を構築

HPEが開発する将来の製品は、生成AIワークロードを高速化する第2世代のTransformer Engineが使用される、新たに発表されたNVIDIA Blackwellプラットフォームをベースにします。NVIDIA GB200 Grace Blackwell Superchip、HGX B200、およびHGX B100を搭載した今後のHPE製品の詳細と提供時期は、今後発表される予定です。

注 記

*1 初期に社内で実施したllama-recipes finetuning.py ( https://github.com/meta-llama/llama-recipes/blob/main/src/llama_recipes/finetuning.py )を使用しベンチマークでファインチューニングにかかる平均エポックタイムを追跡した結果、8ノードでは 594秒、16ノードでは369

※本リリースは、ヒューレット・パッカード エンタープライズ(本社:米国テキサス州ヒューストン、以下:HPE)が、2024年3月18日(現地時間)に発表した英文リリースに基づいて作成した日本語抄訳です。原文(全文)はこちらをご参照ください。

https://www.hpe.com/us/en/newsroom/press-release/2024/03/hewlett-packard-enterprise-debuts-end-to-end-ai-native-portfolio-for-generative-ai.html

ヒューレット・パッカード エンタープライズ(HPE)について

Hewlett Packard Enterprise (NYSE: HPE) は、グローバルEdge-to-Cloudカンパニーとして、あらゆる場所に蓄積される全てのデータの価値を解き放ち、事業の成果を加速させる支援をします。人々の生活そして働き方の向上を目指し、数十年にわたって未来の再考とイノベーションを重ね、HPEは独自でありながら、オープンでインテリジェントなテクノロジーソリューションをas a Serviceで提供しています。クラウドサービス、コンピュート、HPC & AI、インテリジェントエッジ、ソフトウェア、ストレージを全てのクラウドとエッジにわたって一貫したエクスペリエンスで提供することで、お客様が新たなビジネスモデルを創出し、新たなエンゲージメントを展開し、運用のパフォーマンスを最大化できるようサポートしています。詳細はhttps://www.hpe.com でご確認ください。

■プレスルーム

https://www.hpe.com/jp/ja/newsroom/press-hub.html

# # #

このプレスリリースで使用されているその他の製品名は識別の目的のためのみに使用されており、それぞれの企業の商標である場合があります。

【お客様からのお問い合わせ先】

カスタマー・インフォメーションセンター

TEL:0120-268-186 または03-5749-8279

ホームページ: http://www.hpe.com/jp/

(C) 2024 Hewlett Packard Enterprise Development LP

製品およびサービスに関する保証条件は製品およびサービスに付属する保証書に明示された保証条件のみによるものとし、本ニュースリリースの記載内容はいかなる追加保証をも行なうものではありません。当社は本レターの記載内容に技術上の誤り、欠落または本ニュースリリース作成にあたっての誤り、記載漏れがあった場合でも何ら責任を負わないものとします。

配信元企業:日本ヒューレット・パッカード合同会社

企業プレスリリース詳細へ

PR TIMESトップへ