HPEのネリCEO、NVIDIAとのタッグで「AIというチャンス」に自信

AI要約

HPEがNVIDIAと共同開発したエンタープライズ向けのAIソリューション"HPE Private Cloud AI"を発表した。

HPE Discover 2024でCEOのアントニオ・ネリ氏がAI戦略について語った。

HPEの液体冷却技術の歴史についても触れられた。

HPEのネリCEO、NVIDIAとのタッグで「AIというチャンス」に自信

Hewlett Packard Enterprise(HPE)が、NVIDIAと共同開発したエンタープライズ向けのAIソリューション「HPE Private Cloud AI」を発表した。6月に米国で開催されたHPEの年次カンファレンス「HPE Discover 2024」では、同社CEOのアントニオ・ネリ氏がAI戦略に関する記者の質問に答えた。その発言を追ってみたい。

 Hewlett Packard Enterprise(HPE)が、NVIDIAと共同開発したエンタープライズ向けのAIソリューション「HPE Private Cloud AI」を発表した。ハードウェアベンダーもソフトウェアベンダーもこぞってNVIDIAとの提携を発表する中で、HPEは「技術から市場戦略まで密にタッグを組む」という。

 

 今年(2024年)6月、米国ラスベガスで開催されたHPEの年次カンファレンス「HPE Discover 2024」では、同社CEOのアントニオ・ネリ氏がAI戦略に関する記者の質問に答えた。その発言を追ってみたい。

 

基調講演の会場はラスベガスの新名所「Sphere」

 HPE Discoverは例年どおり、ラスベガスのThe Venetian Convention and Expo Centerを会場に開催された。ただし、ネリ氏が登壇した初日の基調講演は、Venetianから徒歩10分ほどの場所にあるラスベガスの新名所、「Sphere」で開催された。

 

 2023年秋にオープンしたSphereだが、こうしたイベントの基調講演を行うのはHPEが始めてだという。ネリ氏は、昨年のHPE Discoverを開催した際に工事中のSphereを内覧して「来年はここで基調講演をやると決めた」と振り返る。

 

 「社内からは本気か? どうやって? とも言われたが、目標を設定して全員がそれに進めば何でも達成できる。AIのような施設(=Sphere)でAIの発表を行うことができて、今回はすばらしいイベントになった」

 

「プライベートクラウドAIについては100%、NVIDIAと組む」

 HPEは今回のDiscoverで、NVIDIAとの提携を通じて構築するAIコンピューティングブランド「NVIDIA AI Computing by HPE」を発表した。その第一弾となる製品が「HPE Private Cloud AI」だ。

 

 “AIのターンキーソリューション”と銘打たれたHPE Private Cloud AIは、AI開発や実行の基盤となるプライベートクラウド向けのAIテクノロジースタックである。導入する企業は、用途や必要なスペックに応じて“Tシャツを選ぶように”システムのサイズ(Small/Medium/Large/Extra Large)が簡単に選べる。

 

 NVIDIAとの提携について、ネリ氏は「これまでも提携関係にはあったが、今回は『顧客企業が(AIに関して)どのような課題に直面しているのか』をNVIDIAと一緒に検討し、ソリューションを構築した」と説明する。

 

 記者からは、HPE Private Cloud AIはNVIDIAとの提携に限定される独占的なものか、あるいはほかの半導体ベンダーとも同様のソリューションを構築する可能性があるのか、という質問が飛んだ。

 

 ネリ氏はまず、HPEではオープンなエコシステムを重視しており、たとえばスパコンにもAMDとIntelの半導体を採用するなど「半導体の多様性という考えは支持している」と語る。ただし、「ここ(NVIDIA AI Computing by HPE)でのNVIDIAとHPEの提携は非常に特別なものだ」と述べ、「プライベートクラウドAIについては100%、NVIDIAと組む」と明言した。

 

 なお、競合ベンダーのDell Technologiesが今年5月に「Dell AI Factory with NVIDIA」を発表している。ネリ氏は、Dell AI Facrotyは顧客が自ら設定しなければならないのに対して、HPE Private Cloud AIは統合されたターンキーソリューションだと、その違いを説明する。さらに、HPEがNVIDIAと市場戦略まで共同展開する点も、Dellとは異なると強調した。

 

「AI活用の加速で、ハイブリッドクラウドのニーズも加速する」

 ネリ氏は、エンタープライズAI市場を(1)モデルを自ら構築する企業やハイパースケーラー、(2)ソブリンクラウドのアプローチが必要な企業/組織、(3)その他の企業に分類したうえで、(3)の課題と解決策を次のように語る。

 

 「データを準備し、あらゆる基盤モデルを導入し、データを使ってモデルをトレーニングする。これらを1つの統合された体験として導入する専門知識、時間や人手がない。だからこそ、アプリケーションからワークフロー、インフラまで、単一の製品として提供するターンキーアプローチが重要になる」

 

 HPE Private Cloud AIでは、GreenLake CloudのコンソールでAIワークロードの種類(推論、ファインチューニングなど)を選び、3回クリックするだけで、数十秒でAIアプリケーションが導入できるという。

 

 現在は、パブリッククラウドでさまざまなAIプラットフォームのサービスが展開されているが、プライベートクラウドにも必要なのか? その疑問に対して、ネリ氏は「AIはその性質上、ハイブリッドクラウドのアーキテクチャを必要とする。AI活用の加速によって、間違いなくハイブリッドクラウドへのニーズも加速する」と断言する。

 

 その理由を、ネリ氏は“データグラビティ(データの重力)”という言葉で説明する。AIモデルのトレーニングに使う大量のデータは、容易に場所(自社データセンターやクラウド)を動かすことができない。また、セキュリティや法規制などの制約があり、データを動かせないケースもある。したがって、トレーニングやファインチューニングのワークロードは“データの重力”に引き寄せられ、データのある場所で実行することになる。

 

 トレーニングよりも顕著なのが、推論のワークロードだ。推論処理に使うデータのほとんどはエッジのエンドポイントで発生する。したがって、推論処理も“データの重力”に引き寄せられ、エッジで実行することになる。また、ここには処理パフォーマンスという要素も関係してくる。たとえば、工場の製造ラインを検査するカメラ画像は、クラウドやデータセンターに送信して20秒後に判定を得るよりも、工場内のサーバーで1秒後に判定が得られたほうがよい。

 

 このように、エッジで多くの推論が行われるようなると、ハイブリッドクラウドのニーズがさらに高まるというわけだ。

 

AI/GPUサーバー時代に必須の液体冷却技術は「他社とは歴史が違う」

 大量のAI処理を目的としたGPUサーバーを中心に、この数年、サーバーメーカー各社は自社独自の水冷技術(冷却技術)の優位性をアピールしている。もちろんHPEもその一社だが、ネリ氏は「HPEは(他社とは)歴史が違う」と強調する。

 

 「冷却技術に関して、HPEは熱交換で熱を回収する『Adaptive Rack Cooling System』など、100件以上の知的所有権を持っている。(分社化する前の)Hewlett Packard時代から20年以上、直接液体冷却の研究と開発を続けており、ミッションクリティカルなシステムでも直接液体冷却を導入している。たとえば2011年の『HP Apollo』は、スパコンで初めて直接液体冷却を導入した。(現行のスパコンである)HPE Frontier、HPE Aurora、HPE Venadoなどのシステムも、100%直接液体冷却だ」

 

 さらに、HPEでは冷却システムも製造しており、この点も他社にはない重要な違いだと述べた。

 

文● 末岡洋子 編集● 大塚/TECH.ASCII.jp