Llama 3(ラマスリー)をやさしく解説、試してわかったメタのオープンソースLLMの弱点

AI要約

メタが新たに発表したオープンソース大規模言語モデル「Llama 3」は、80億と700億のパラメータを持ち、高いベンチマークスコアを記録している。

「Llama 3」は他社の同規模モデルを凌駕し、数学やコーディング能力の改善を示す。新たなチャットボット「Meta AI」のリリースにより、ChatGPTやClaude、HuggingChatに対抗している。

「Llama 3」はライセンス条件に注意が必要だが、オープンソースポリシーのもとで公開されており、メタのAIチームやネット上の評価も高い。

Llama 3(ラマスリー)をやさしく解説、試してわかったメタのオープンソースLLMの弱点

 メタが4月に発表したオープンソース大規模言語モデル(LLM)が「Llama 3(ラマスリー)」だ。80億と700億のパラメータを持つバージョンが公開され、いずれも他社モデルに匹敵する高いベンチマークスコアを記録する。特に80億モデルは同規模の他モデルを凌駕し、数学やコーディング能力の大幅改善を見せた。Llama 3を搭載した新チャットボット「Meta AI」のリリースにより、ChatGPTやClaude、HuggingChatへのキャッチアップを図る。本稿では、実際にいくつかのプロンプトで試して、その実力を試してみた。その結果見えてきた強みと弱みとは。

 「Llama 3」とは、メタが2023年2月に発表したオープンソースの大規模言語モデル「LLaMA」の最新版で、2024年4月に発表された。

 発表時点では80億(8B)パラメータと700億(70B)パラメータの2つのバージョンで構成され、現在4000億(400B)パラメータモデルも現在トレーニング中だという。

 メタ幹部のラガバン・スリニバサン氏は4000億モデルについて「ベンチマークの観点からみると、本当に桁外れの性能を発揮している」とコメント。また同社AIチームのVP、マノハル・パルリ氏は「Llama 3の80億、700億モデルは、オープンモデルで最高の性能を発揮しており、一部のクローズドモデルにも匹敵、あるいはそれ以上だ」と豪語している。

 メタのザッカーバーグ氏とネット上で一悶着あったイーロン・マスク氏も、Llama 3については「Not Bad(悪くない)」と評価するなど、おおむね好評価を得ている。

 Llama 3はメタのチャットプラットフォーム「Meta AI」にも統合された。OpenAIのChatGPT、AnthropicのClaude、HuggingFaceのHuggingChatなど競合へのキャッチアップを目指す。Meta AIは、フェイスブックアカウントでのログインが必要だが、画像生成モデル「Meta Imagine」が使用可能となっている。ただし現時点ではマルチモーダル非対応で、画像やドキュメントのアップロードはできない。

 なお、Llama 3はメタのオープンソースポリシーの下で公開されるが、ライセンス条件は一般的なオープンソースとは異なるため注意が必要だ(ソースは公開しているが、正確に言うとオープンソースソフトウェアではない)。