![](/img/media/664e623a90034.jpg)
Llama 3(ラマスリー)をやさしく解説、試してわかったメタのオープンソースLLMの弱点
メタが新たに発表したオープンソース大規模言語モデル「Llama 3」は、80億と700億のパラメータを持ち、高いベンチマークスコアを記録している。
「Llama 3」は他社の同規模モデルを凌駕し、数学やコーディング能力の改善を示す。新たなチャットボット「Meta AI」のリリースにより、ChatGPTやClaude、HuggingChatに対抗している。
「Llama 3」はライセンス条件に注意が必要だが、オープンソースポリシーのもとで公開されており、メタのAIチームやネット上の評価も高い。
![Llama 3(ラマスリー)をやさしく解説、試してわかったメタのオープンソースLLMの弱点](/img/article/20240622/6675fdff2235c.jpg)
メタが4月に発表したオープンソース大規模言語モデル(LLM)が「Llama 3(ラマスリー)」だ。80億と700億のパラメータを持つバージョンが公開され、いずれも他社モデルに匹敵する高いベンチマークスコアを記録する。特に80億モデルは同規模の他モデルを凌駕し、数学やコーディング能力の大幅改善を見せた。Llama 3を搭載した新チャットボット「Meta AI」のリリースにより、ChatGPTやClaude、HuggingChatへのキャッチアップを図る。本稿では、実際にいくつかのプロンプトで試して、その実力を試してみた。その結果見えてきた強みと弱みとは。
「Llama 3」とは、メタが2023年2月に発表したオープンソースの大規模言語モデル「LLaMA」の最新版で、2024年4月に発表された。
発表時点では80億(8B)パラメータと700億(70B)パラメータの2つのバージョンで構成され、現在4000億(400B)パラメータモデルも現在トレーニング中だという。
メタ幹部のラガバン・スリニバサン氏は4000億モデルについて「ベンチマークの観点からみると、本当に桁外れの性能を発揮している」とコメント。また同社AIチームのVP、マノハル・パルリ氏は「Llama 3の80億、700億モデルは、オープンモデルで最高の性能を発揮しており、一部のクローズドモデルにも匹敵、あるいはそれ以上だ」と豪語している。
メタのザッカーバーグ氏とネット上で一悶着あったイーロン・マスク氏も、Llama 3については「Not Bad(悪くない)」と評価するなど、おおむね好評価を得ている。
Llama 3はメタのチャットプラットフォーム「Meta AI」にも統合された。OpenAIのChatGPT、AnthropicのClaude、HuggingFaceのHuggingChatなど競合へのキャッチアップを目指す。Meta AIは、フェイスブックアカウントでのログインが必要だが、画像生成モデル「Meta Imagine」が使用可能となっている。ただし現時点ではマルチモーダル非対応で、画像やドキュメントのアップロードはできない。
なお、Llama 3はメタのオープンソースポリシーの下で公開されるが、ライセンス条件は一般的なオープンソースとは異なるため注意が必要だ(ソースは公開しているが、正確に言うとオープンソースソフトウェアではない)。