なぜオープンウェイト型のモデルをリリース?
今回のGPT-ossの特徴・優位点は何か。
「性能レンジ:120bは標準ベンチマークで o4-miniに匹敵/一部で上回る、20bはo3-mini級の結果が公表されています。ツール使用(関数呼び出し/ブラウジングやPython実行)、構造化出力、CoT(Chain of Thought)に対応し、reasoning_effort(推論強度)も段階的に調整可能です。
運用性:120bは単一80GB GPUで推論可、20bは16GB級メモリでも動作可能とされ、クラウド/オンプレ/エッジまで展開しやすいのが強みです(それぞれ、80万円/15万円程度で買えるパソコンで使える)
安全性:OpenAIの Preparedness Framework下での追加評価レイヤー導入やシステムカードが用意され、同社内の安全性ベンチマークでフロンティア系に準じる水準と説明されています
用途としては、クラウドに機微データを出せない現場や、レイテンシ/コスト/カスタマイズを最適化したい企業に有効です。ローカル運用であればプロンプトは自社環境外へ出ません」
前述のとおり、OpenAIは近年、情報の公開を限定するかたちでAI言語モデルをリリースしてきたが、ここへきて5年ぶりにオープンウェイト型のモデルをリリースした理由は何であると考えられるのか。
「あくまで私見ですが、以下が重なった結果だと考えます。 ・データ主権・コンプライアンス要件に応えるローカル/オンプレ需要 ・開発者エコシステムの奪還(Llama/Qwen等へ流れていた) ・『プライベートAI』市場の拡大(企業内での自律エージェント運用やツール連携) ・中国勢の高性能オープンモデルへの対抗」
(文=BUSINESS JOURNAL編集部、協力=大塚あみ/合同会社Hundreds代表)