即時応答型と思考型をシームレスに統合

 Qwen3の性能は、他社のLLMと比較してどう評価できるのか。

「Qwen3の詳細、競合LLMとの精度比較については、こちらをご覧ください。
    要約すると、次のようなポイントが挙げられています。

・もっぱらWeb上の情報から集めたQwen2.5の18兆トークンの事前学習用データに加え、PDF文書などをQwen2.5により品質向上させて、119の言語と方言(上記ページのMultilingual Support欄にその一覧)をカバーする約36兆トークンで事前学習

・GPT 4o, DeepSeek V3のような即時応答型と、o1, o3, DeepSeek R1のような思考型をシームレスに統合(OpenAIのGPT5がそうなるとサム・アルトマンCEOが言っていたのを先取り)

・Qwen3の235B-A22B、Qwen3-32Bは、事前学習後に(1)長い思考連鎖(CoT)のコールドスタート、(2)推論に基づく強化学習(RL)、(3)思考モードの融合、(4)一般的なRLという、4段階の事後トレーニングにより実装。

・小型のモデル、Qwen3-30B-A3B、Qwen3-14B/8B/4Bは、Qwen3 235B-A22B、Qwen3-32Bからの『蒸留』により高精度をなるべく維持したまま小型化

・(規制の緩い)Apache 2.0ライセンスで商用利用可能

・AIエージェント実装には、Qwen-Agentライブラリが提供され、エージェントのデフォルトインタフェース規格となりつつあるMCP設定ファイルを定義するだけで、外部ツールを呼び出し実行させられるようになった」(野村氏)