OpenAI、「Microsoft Azure AI platform」の拡張にOCIを採用

AI要約

OracleとMicrosoftはOpenAIと協力し、OCIとAzureの連携強化を発表。

OCIは高速かつ確実なAIモデル構築を可能にし、LLMの訓練に最適。

OCI Superclusterは64kのGPUやGB200 Grace Blackwell Superchipsを使用して拡張可能。

 米Oracleは現地時間6月11日、MicrosoftおよびOpenAlと協業し、「Microsoft Azure Al platform」を「Oracle Cloud Infrastructure」(OCI)に拡張することで、OpenAlにさらなるキャパシティーを提供すると発表した。

 OpenAl 最高経営責任者(CEO)のSam Altman(サム・アルトマン)氏は「MicrosoftおよびOracleと協力できることをうれしく思う。OCIはAzureのプラットフォームを拡張し、OpenAIの継続的な拡張を可能にする」とコメントしている。

 Oracle 会長 兼 最高技術責任者(CTO)のLarry Ellison(ラリー・エリソン)氏は、「世界最高の大規模言語モデル(LLM)を構築する競争は始まっており、当社のGen2(第2世代の)AIインフラに対する無限の需要を加速させている。OpenAIのようなリーダー企業がOCIを選んでいるのは、OCIが世界最速で最もコスト効率の高いAIインフラだからである」とアピールする。

 OCIの目的別のAI機能により企業は、Oracleの分散型クラウド上のあらゆる場所において、より高速かつ確実にモデルを構築・訓練できる。LLMの訓練において「OCI Supercluster」は、超低遅延なリモート・ダイレクト・メモリー・アクセス(RDMA)クラスターネットワーキングと選択可能なハイパフォーマンスコンピューティング(HPC)ストレージによって接続された64kの「NVIDIA Blackwell GPU」、または「GB200 Grace Blackwell Superchips」まで拡張できる。