生成AIが「爆速化」、30倍高速のNVIDIAの次世代GPU「Blackwell」がもたらすヤバさ

AI要約

生成AI市場は、GPT-4を超える大規模言語モデル(LLM)が乱立する「ポストGPT-4」フェーズに突入した。次世代GPU開発競争も激化しており、NVIDIAのBlackwellとGroqのChatGPT高速化GPUが注目されている。

NVIDIAのBlackwellは、前世代比で最大30倍のパフォーマンス向上と1/25のコスト・エネルギー消費を実現。AIモデルの学習と推論を効率的に行えるよう設計され、LLM向けに特化したGPUとして期待されている。

Blackwellの登場により、クラウドプロバイダーやAI企業への導入が予想されており、AIの処理速度と効率性が飛躍的に向上する可能性がある。

生成AIが「爆速化」、30倍高速のNVIDIAの次世代GPU「Blackwell」がもたらすヤバさ

 GPT-4を超える大規模言語モデル(LLM)が乱立する「ポストGPT-4」フェーズに突入した生成AI市場だが、生成AIを爆速化する次世代GPUの開発競争にも拍車がかかっている。トップを走るNVIDIAは、次世代GPU「Blackwell(ブラックウェル)」を発表。前世代と比べ、最大30倍のパフォーマンス向上を実現するとともに、コストとエネルギー消費を1/25に抑えることに成功したという。一方、スタートアップの動きも活発化しており、GroqはChatGPTを13倍高速化できるGPUの開発を終え、すでに販売拡大に乗り出している。激化するGPU開発競争、その最前線を追ってみたい。

1ページ目を1分でまとめた動画

 生成AI市場は、GPT-4を超える大規模言語モデル(LLM)が乱立する「ポストGPT-4」フェーズに突入した。これと同時に起こっているのが、AIモデルのトレーニング/推論をさらに加速させる次世代GPUの開発競争の激化だ。

 NVIDIAは2024年3月、次世代GPU「Blackwell(ブラックウェル)」を発表。Blackwellは、AI処理のタスクにおいて、前世代比で25倍もの低コストと低消費電力を実現したとされる。また推論ワークロードにおいては、前世代に比べ最大30倍のパフォーマンス向上を達成したという。

 Blackwellは、初のアフリカ系アメリカ人としてアメリカ国立科学アカデミーに選出された数学者、デイビッド・ハロルド・ブラックウェル氏にちなんで名付けられたモデル。2080億個ものトランジスタを搭載し、TSMCのカスタムメイドの4ナノメートルプロセスで製造される。

 特筆すべきは、Blackwellが大規模言語モデル用に特化したGPUであるという点だろう。まず、AIモデルの学習と推論を高速化するための第2世代トランスフォーマーエンジンを搭載。AIの演算をより効率的に行える工夫がなされており、同じメモリ量でより大きなAIモデルを扱えるようになったほか、演算能力とモデルサイズを2倍に拡張できるようになったという。

 また、LLM向けに第5世代のNVLinkネットワーキング技術も搭載されている。NVLinkとは、NVIDIA社が開発した高速なGPU間通信技術。この最新バージョンのNVLinkにより、最大576個のGPU間で高速かつシームレスにデータをやり取りできるようになる。これにより、あたかも1つの巨大なGPUで処理しているかのように、効率的にLLMの学習や推論を行うことが可能になるのだ。

 Blackwellはマイクロソフト、アマゾン、メタ、グーグル、OpenAIなどの主要なクラウドプロバイダーやAI企業に投入されることが予想されている。NVIDIAが主張するように、30倍のパフォーマンスを実現できるとすれば、その影響は計り知れない。