即時応答型と思考型をシームレスに統合
Qwen3の性能は、他社のLLMと比較してどう評価できるのか。
「Qwen3の詳細、競合LLMとの精度比較については、こちらをご覧ください。
要約すると、次のようなポイントが挙げられています。
・もっぱらWeb上の情報から集めたQwen2.5の18兆トークンの事前学習用データに加え、PDF文書などをQwen2.5により品質向上させて、119の言語と方言(上記ページのMultilingual Support欄にその一覧)をカバーする約36兆トークンで事前学習
・GPT 4o, DeepSeek V3のような即時応答型と、o1, o3, DeepSeek R1のような思考型をシームレスに統合(OpenAIのGPT5がそうなるとサム・アルトマンCEOが言っていたのを先取り)
・Qwen3の235B-A22B、Qwen3-32Bは、事前学習後に(1)長い思考連鎖(CoT)のコールドスタート、(2)推論に基づく強化学習(RL)、(3)思考モードの融合、(4)一般的なRLという、4段階の事後トレーニングにより実装。
・小型のモデル、Qwen3-30B-A3B、Qwen3-14B/8B/4Bは、Qwen3 235B-A22B、Qwen3-32Bからの『蒸留』により高精度をなるべく維持したまま小型化
・(規制の緩い)Apache 2.0ライセンスで商用利用可能
・AIエージェント実装には、Qwen-Agentライブラリが提供され、エージェントのデフォルトインタフェース規格となりつつあるMCP設定ファイルを定義するだけで、外部ツールを呼び出し実行させられるようになった」(野村氏)