・「Command R+」について知りたい
・ChatGPT筆頭に他のLLMとの性能比較について知りたい
・Command R+の実際の使用感や評価、利用結果について知りたい
今回はCohere(コーヒア)のLLMモデルの「Command R+」について紹介します。このモデルはカナダのAIスタートアップ企業であるCohereによって、2024/4/4オープンに公開された生成AIのモデルです。
Cohereという名前を聞いたことなかったのですが、実はOracleが支援している企業のようでOpen AIのライバルともいわれているようです。そんな企業から支援を受けて作られたAIモデル、、、試行利用してみました。
モデルが巨大すぎて私のマシンのスペックでは追い付かず、今回、HuggingFaceのデモ環境で検証しました
まずはCommand R+の概要を述べたうえで利用結果を以降でまとめています。
無料のAIモデル「Command R+」とは
Command R+の特徴
「Command R+1」はカナダのAIスタートアップ企業であるCohereが開発したLLMモデルです。日本語の応答にも対応している上に、非商用利用であればローカルで利用できます。
モデル提供元のCohereは、Googleの深層学習アーキテクチャTransformer開発チームの一員だったエイダン・ゴメス氏によって設立された企業です。冒頭にも書いたようにOracleなどが支援しています。
当モデルはCommandに始まり、Command R(2024年3月)、Command R+(2024年4月)へと改良されていきました。
Command R+はRAGを使った応答機能を搭載しており、検索結果を加味しつつ回答精度の高いものを渡すことができます。
またCohere自身がCommand R+のAPIを用意しており、これは有料です。具体的には入力が100万トークン当たり3ドルで出力が100万トークンあたり15ドルとなっています。
ダウンロード状況
インサイトを見るとリリースから3日で以下のように10万を超えています。これは以前紹介したGemmaとかが1か月で40万ダウンロードなので、このままいけば大きく上回るのではないかと思っています。
GPTを超える性能
Command R+はGPTを超える性能ともいわれています。具体的には以下のようにLLMである、「Mistral Large」「GPT-4 Turbo」の性能を比較したデータが公開されています。
Command R+はMultilingual(多言語処理)とRAGにおいてMistral Largeを上回る性能を示しています。Tool Use(外部ツールを用いて回答精度を向上させる仕組み)ではGPT-4 Turboを超える性能を示しています。
厳密にはGPT4-Turboに劣っているので、タイトルとそぐわない気もしますが、それでも有料のLLMに追い付こうとしているのはすごいことだと筆者は思います。
登録はこちらから
Command R+利用してみた
HuggingFaceにでもサイトがあるので、そこで試行利用してみました。
本当はローカルに取り込んでマイGPTシステムを作りたかったのですが、スペックが不足しているためどのモデルもインストールエラーになってしまいました。
試行結果のレビュー
本章ではCommand R+を試行利用した結果のレビューをまとめました。
良かった点は以下です。
- 開発体制の安心感
- RAG対応にしても珍しい無料利用可能
- 日本語に対応
悪かった点は以下です。
- 必要スペックが分からない
- ソースコードが公開されていない
良かった点1:開発体制が安心できること
Cohereという企業は今回のニュースを見て初めて知ったわけですが、設立の歴史がすごいですね。主に以下です。
- 創立者がAIの基盤であるTransformerの開発者であること
- Oracleという大手企業が支援していること
Cohereなかなか聞かないな企業ですが、ここまで開発体制がしっかりしていると安心できます。
良かった点2:RAG対応にしても珍しい無料利用可能なこと
ChatGPTのGPT4-Turboとか使えればRAGに対応していますが、こういったLLMは有料で使う人が限られています。RAGがあると単純な学習だけでは誤ってしまう出力を補填することができ、より精度の高い出力ができます。
Command R+は無料で利用できるRAG対応のLLMというのが非常にいいと思いました。
良かった点3:日本語に対応していること
多言語対応しているといわれているように、やはり日本語に対応しているのはいいなと思いました。いろいろなLLMを見てきましたが、日本語対応をしているかわからないことが多く、この辺を公式も明記しているのは非常にありがたいです。
悪かった点1:必要スペックが分からないこと
ローカルでも使えることが強みですが、筆者が持っているNVIDIA 1650 Superではモデルのダウンロードはできても、GPUのメモリが1000億近くのパラメータに耐えられずインストールできませんでした。
どうやってローカルで動かせるか調査が必要です。もしかしたら筆者のPCのスペックでは限界が来てるかなと…いろいろ調べてみるとA100やH100などの高性能GPUが複数枚必要という話も出ています。。。100万円単位のGPUとか一般人に無理!!!
それが加味されているのか4bit版の軽量(?)モデルもあるようですが、これでも筆者のPCではだめでした。
一例としてCommand R+を利用している方が、A6000のGPUでCommand R+に40GBのメモリを利用していました(こちらを参照)。
他のLLMにも言える部分がありますが、推奨のスペックがあるとローカルでも使えるしうれしいと思いました。
悪かった点2:ソースコードが公開されていないこと
色々なサイトを見ているとCommand R+はオープン「ソース」のLLMという話になっています。公式サイトやニュースサイトが言っているわけではなさそうなのですが、それであればモデル構築のもととなったソースコードは渡してどこにあるのでしょうか。
過去紹介したGemmaはオープン「モデル」と、モデルのみでソースコードが公開されていないことが示されています。
少なくともオープンの何に分類されているかが分かれば、この辺もやっとしない気もします。
まとめ
今回はCohereが開発したLLMモデル「Command R+」について紹介しました。Oracleなどの大手企業の支援を受け、OpenAIに匹敵するAIモデルと注目を集めています。
Command R+は多言語処理に対応し、特に日本語にも強いことが魅力です。RAGを使用し、高い回答精度を実現しており、非商用利用では無料でアクセスできます。リリースからわずか3日で10万ダウンロードを超えるなど、その人気は急速に高まっています。
性能は「Mistral Large」や「GPT-4 Turbo」といった他のLLMと比較しても高く、特にTool UseにおいてはGPT-4 Turboを凌駕するとの結果も出ています。
しかし、モデルが非常に大きく、高スペックのマシンが必要という問題点があり、ローカルでの利用にはハードルがあるようです。加えて、ソースコードの公開状況が明確でないため、さらなる透明性が期待されます。
総じて、Command R+はその性能の高さと無料のアクセシビリティで今後の生成AIの市場に大きな影響を与える可能性を秘めており、継続的な注目が期待されます。
参考文献
- Cohere docs : Command R+(https://docs.cohere.com/docs/command-r-plus)
- Hugging Face – CohereForAI/c4ai-command-r-plus(https://huggingface.co/CohereForAI/c4ai-command-r-plus)
- Gigazine – 日本語対応でGPT-4よりも高性能な大規模言語モデル「Command R+」が登場したので使ってみた、無料でダウンロードしてローカル動作も可能(https://gigazine.net/news/20240408-command-r-plus-cohere-llm/)
- Weel – 【Command R+】オープンソース界最強LLMがGPT-4レベルの性能を達成(https://weel.co.jp/media/tech/command-r-plus/)
- まるで“いけない話ができるChatGPT” ローカルAI「Command R+」の爆発的な可能性(https://ascii.jp/elem/000/004/198/4198080/)
- 読みはおそらく「コマンダープラス」 ↩︎
コメント