HPEとNVIDIA、生成AI導入を加速する「NVIDIA AI Computing by HPE」を提供

AI要約

日本ヒューレット・パッカード(HPE)とNVIDIAが共同開発した「NVIDIA AI Computing by HPE」に関する説明会が開催された。この取り組みは企業の生成AI導入を支援する概念であり、HPEとNVIDIAの技術が統合されている。

HPE ProLiant DL384 Gen12やHPE Cray XD670など、複数の製品がNVIDIAの最新技術を搭載し、エネルギー効率や生成AIアプリケーションの開発・展開をサポートする。そして、HPE Private Cloud AIはパートナー企業を通じて提供される予定だ。

NVIDIA AI Computing by HPEはさまざまな業界に対応し、自動化やコンテンツ生成などの活用に焦点を置いている。具体的な製品やサービスの提供に加え、NVIDIA技術に関するトレーニングも行われる。

HPEとNVIDIA、生成AI導入を加速する「NVIDIA AI Computing by HPE」を提供

 日本ヒューレット・パッカード(HPE)は7月31日、NVIDIAと共同で「NVIDIA AI Computing by HPE」に関する説明会を開催した。

 NVIDIA AI Computing by HPEは、HPEとNVIDIAが共同開発した企業の生成AI導入を支援する概念。今夏は、デュアルNVIDIA GH200 NVL2搭載の「HPE ProLiant DL384 Gen12」とNVIDIA H200 NVL搭載の「HPE Cray XD670」、今秋はVIDIA H200 NVL TensorコアGPU搭載の「HPE ProLiant DL380a Gen12」、NVIDIAの各技術を盛り込む。エネルギー効率や生成AIアプリケーションの開発・展開を継続する「HPE Private Cloud AI」は、今冬からパートナー企業を通じて提供する予定だ。

 日本ヒューレット・パッカード 執行役員 ハイブリッドソリューションズ事業統括本部 ソリューションアーキテクト 本部長の及川信一郎氏は「ピープル、テクノロジー、エコノミクスの文脈で企業のネイティブAI変革を加速・支援する」とNVIDIA AI Computing by HPEの概要を説明している。

 HPEが6月に開催した「HPE Discover 2024」はAI変革を主題として、生成AIを活用するエンタープライズ級の基盤が必要だと語られた。その文脈で発表されたソリューションの一つが、NVIDIA AI Computing by HPEである。

 先行して登場するHPE ProLiant DL384 Gen12は、大規模言語モデル(LLM)利用および大規模モデルの構築、外部データを参照する検索拡張生成(RAG)の微調整など基本的な機能を備える。

 NVIDIA H200 NVLを最大8基搭載できるHPE ProLiant DL380a Gen12は、組織全体で生成AIやLLMが利用可能。HPEは単純な製品提供にとどまらず、AIサービスやトレーニングなど側面支援もHPEとNVIDIA共同で行う。具体的には、HPEのグローバルアカウントマネージャーやAIスペシャリスト、ソリューションエンジニアにHPE Private Cloud AI、NVIDIA生成AI技術に関するトレーニングを実施。パートナー企業や技術者コミュニティーへもNVIDIAトレーニングと資格認定を提供する。

 及川氏は、NVIDIA AI Computing by HPEの導入業種は問わないと述べながら、「例えばチャットボットのような仮想アシスタントや工場棟で使われるパターン認識、あるいはIT管理トラブルシュート自動化など、プロセスそのものの自動化、あるいはコンテンツ生成するエンタープライズの活用に焦点を当てている」と市場戦略を説明した。

 NVIDIA AI Computing by HPEの利点は単なる企業向けAI PCにとどまるものではないという。HPEによれば、電源投入後からAI利用・開発環境の展開に至るまで数ステップで終えるため、データサイエンティストやデータエンジニア、IT運用者の生産性を高めるとしている。また、及川氏は、「クラウド/オンプレミス各所にある構造化データや非構造化データを全て一元化して扱えるコンポーネントを含んでいる」と説明する。大企業の信頼性や制御を可能するプライベートクラウド環境、概念実証(PoC)から本番環境へ展開する際もデータはオンプレミスで保持する仕組みを用意。希望に応じてクラウドから利用することも可能だという。

 NVIDIA AI Computing by HPEの構成要素は多岐にわたり、本番環境へAIモデルの展開を効率化する「NVIDIA NIM」、データパイプラインの高速化や生成AIアプリケーションの開発と展開を効率化する「NVIDIA AI Enterprise」、インターフェース部分もAI向けに最適化したイーサネットネットワーキングプラットフォームの「NVIDIA Spectrum-X」を実装している。

 エヌビディア エンタープライズ事業本部 事業本部長の井﨑武士氏は「HPとの技術的協議価値は2つ。1つはわれわれのGPUやNVIDIA Spectrum-Xに代表されるプラットフォームの統合。もう1つはソフトウェア。エンタープライズスイートのNVIDIA AI Enterpriseや、2024年に発表したNVIDIA NIMもコンテナーとして提供できる」とアピールした。各モデルの性能差についても、「『Llama 3』のスループットは約3倍違う」という。