●この記事のポイント ・日本の企業でAIモデルの開発に中国アリババクラウドの「Qwen」を採用する企業が増加 ・高い性能が出る上にコストが比較的低く、ライセンス形態のオープン度合いが高い ・モデルのサイズの種類が豊富で、開発するモデルの選択肢が豊富にそろう
AIモデルと聞くと米メタの「Llama」や米グーグルの「Gemma」、米OpenAIの「o1」などが思い浮かびやすいが、日本の企業でAIモデルの開発に中国アリババクラウドの「Qwen」を採用する企業が増えているという。Llamaなどよりも高い性能が出る上にコストが比較的低く、ライセンス形態のオープン度合いが高いことなどが理由だとされるが、なぜQwenが選ばれているのか。専門家の見解を交えて追ってみたい。
●目次
AIモデルの精度面とライセンス面
アリババは2023年にQwenシリーズとしては初となる「Qwen-7B」「Qwen-7B-Chat」をリリース。今年に入っても「Qwen2.5-Max」「Qwen2.5-VL-32B」を相次ぎリリースし、直近4月には最新世代「Qwen3」を、そして5月には同社として初めて「ハイブリッド推論」モデルを搭載した「Qwen2.5-Max」を発表。119の言語と方言に対応し、翻訳や多言語プロンプト処理で業界トップクラスの精度を実現したとしている。
そんなQwenをAIモデルの開発に採用する企業が日本では増えているという。例えば株式会社ABEJAはQwenをベースに開発した「ABEJA QwQ-32B Reasoning Model」を4月に発表。OpenAI社の「GPT-4o」「o1-preview」などを上回る性能に到達していながら、320億パラメータと圧倒的に小型であるため多用なエッジ環境での実装が可能となっている。
ABEJAのプリンシパルデータサイエンティスト・服部氏はいう。
「Qwenを採用する企業が増えている理由は、大きくは2つあります。まず、AIモデルの精度面に関して、1年くらい前まではメタのLlamaが使われることが多かったのですが、今時点を切り取って最新の世代を比較するとQwenのほうが総合的にみると性能・精度が高いと評価されており、AIモデルを開発する側としては『より高精度のモデルをベースにしたほうがいい』という判断になります。もう一つの理由がライセンス面です。Qwenは公開している多くのモデルがApache License 2.0といって、権利の自由度が非常に高く、使いやすくなっています。。メタのLlamaやグーグルのGemmaなどは各社独自のライセンス形態となっており、ライセンスの継承などの点でさまざまな考慮をする必要があり、Qwenはそういう必要がまったくないという点が大きいです。
付け加えるなら、Qwenはモデルのサイズの種類が豊富で、開発するモデルのコストと性能のバランスを考えるときに選択肢が豊富にそろうというのもQwenを採用するメリットです。
技術者の間でも実際に評判が良いです。昨年から使われ始めているQwen2.5も明らかに性能が良く、技術者のコミュニティの中でも評判が広がって使われるようになっているという流れがあると思います」
ちなみにABEJAがQwenをベースに開発した「ABEJA QwQ-32B Reasoning Model」は、ローカル環境で動作させるのに現実的なサイズである一方、論理的思考ができて性能が高く、コストと性能面の両面を勘案するとバランスが良いのが特徴だ。
「このモデルより性能が高くなると大量のGPUを搭載したハードウェアが必要となり、逆に小さいモデルになると性能が低くなってしまいます。実用ベースではOpenAIのGPT4やo1-previewを超えており、かつコストを抑制しているのが強みであると考えています」(服部氏)