Red Hat、生成AIモデルの開発・実行プラットフォーム「Red Hat Enterprise Linux AI」を一般提供

AI要約

Red HatがRHEL AIの一般提供を開始し、生成AIモデルを開発、テスト、実行するための基盤モデルプラットフォームを提供

RHEL AIは効率的かつ柔軟で、ハイブリッドクラウド全体で目的に合わせたAIモデルを利用可能にし、オープンソースコミュニティを活用してハードルを下げる

Red Hatは生成AIの普及に期待し、将来的には企業ITスタックの一部を占めると見込む

Red Hat、生成AIモデルの開発・実行プラットフォーム「Red Hat Enterprise Linux AI」を一般提供

 米Red Hatは現地時間5日、「Red Hat Enterprise Linux AI(RHEL AI)」の一般提供を開始したと発表した。

 RHEL AIは、エンタープライズアプリケーションを強化するための生成AIモデルを、よりシームレスに開発、テスト、実行するための、Red Hatの基盤モデルプラットフォーム。このプラットフォームは、オープンソースライセンスのGranite大規模言語モデル(LLM)ファミリーと、Large-scale Alignment for chatBots(LAB)方法論に基づくInstructLabモデルアライメントツールを統合したもので、ハイブリッドクラウド全体で個々のサーバーをデプロイするために最適化された、ブート可能なRHELイメージとしてパッケージ化されている。

 また、RHEL AIはデータサイエンティストだけでなく、ドメインの専門家がハイブリッドクラウド全体で、目的に応じた生成AIモデルに貢献できる機能を提供すると説明。同時に、IT組織がRed Hat OpenShift AIを通じて、これらのモデルを本番環境用に拡張できるようにするとしている。

 Red Hatでは、生成AIの将来性は非常に豊かなものだが、LLMの調達、トレーニング、微調整にかかる関連コストは天文学的な数字になる可能性があり、一部の主要モデルではリリース前のトレーニングに2億ドル近くかかるものもあると説明。この金額には、特定の組織の固有要件やデータに合わせて調整するコストは含まれず、通常、調整にはデータサイエンティストや専門性の高い開発者が必要になるという。特定のアプリケーションのために選択されたモデルであっても、それを企業固有のデータやプロセスに合わせて調整する必要があり、本番環境におけるAIについては、効率性と俊敏性が重要だとしている。

 こうしたことから、Red Hatは今後の10年間で、より小さく効率的で目的に合わせて構築されたAIモデルが、クラウドネイティブアプリケーションとともに、エンタープライズITスタックの多くの部分を占めると考えていると説明。しかし、それを実現するには、コストから貢献者、ハイブリッドクラウド全体で実行できる場所に至るまで、生成AIのアクセス性と可用性を高める必要があるとしている。

 数十年にわたり、オープンソースコミュニティは、さまざまなユーザーグループからの貢献を通じて、複雑なソフトウェアの問題に対する、同じような課題の解決を支援してきたとして、同じアプローチを採用することにより、生成AIを効果的に取り入れるためのハードルを引き下げられるという。

 RHEL AIは、こうした課題を解決するために開発されたもので、ハイブリッドクラウド全体にわたり、生成AIをCIOやエンタープライズIT組織にとって利用しやすく、効率的かつ柔軟なものにするとしている。

 RHEL AIは、エンタープライズグレード、オープンソースライセンスのGraniteモデルにより生成AIのイノベーションを強化し、さまざまな生成AIのユースケースに対応する。InstructLabツールにより、生成AIモデルをビジネス要件に効率よく合わせられるようにして、組織内のドメインエキスパートや開発者が、豊富なデータサイエンスのスキルがなくても、独自のスキルや知識をモデルに提供する。

 生成AIをハイブリッドクラウド上のどこでもトレーニングし、デプロイできる。これは、関連するデータがどこにあっても、本番でのサーバーのモデルを調整し、デプロイするために必要なすべてのツールを提供することで実現する。RHEL AI は同じツールとコンセプトを使用しながら、モデルをスケールアップしてトレーニング、調整、提供するための、Red Hat OpenShift AI へのオンランプも可能にする。

 また、RHEL AI は、Red Hatサブスクリプションのメリットによってサポートされる。これには、信頼できるエンタープライズ製品の提供、24時間365日のサポート、拡張モデルのライフサイクルサポート、モデルの知的財産補償、Open Source Assuranceの法的保護が含まれる。

 より一貫性のある基盤モデルプラットフォームを組織のデータが存在する場所に近付けることは、本番環境のAI戦略をサポートする上で極めて重要となる。

 また、Red Hatのハイブリッドクラウドポートフォリオを拡張するにあたり、RHEL AIはオンプレミスのデータセンターからエッジ環境、パブリッククラウドまで、ほぼ全てのエンタープライズ環境にまで拡大する予定だと説明。RHEL AIはRed Hatから直接のほか、Red Hatの相手先ブランド製造(OEM)パートナーから入手できるようになり、Amazon Web Services(AWS)、Google Cloud、IBM Cloud、Microsoft Azureを含む世界最大のクラウドプロバイダー上で実行でき、開発者やIT組織は、ハイパースケーラーのコンピュートリソースのパワーを活用して、RHEL AIで革新的なAIコンセプトを構築できるとしている。

 RHEL AIは、オンプレミスで実行するか、AWSとIBMクラウドに独自のサブスクリプションの持ち込み (BYOS)としてアップロードするために、Red Hatカスタマーポータルを介して現在一般提供されている。Microsoft AzureとGoogle CloudでのBYOSサービスの提供は2024年第4四半期に予定し、RHEL AIも2024年後半にサービスとしてIBMクラウドで提供を予定する。さらに今後数カ月のうちに、RHEL AIクラウドとOEMパートナーの幅を広げ、ハイブリッドクラウド環境における選択肢を増やしていく予定としている。