
OpenAIは、gpt-oss-120bとgpt-oss-20bという2つのオープンソース理論AIモデルを発表しました。これらは、同社のoシリーズと同等の能力を備えています。これは、OpenAIがGPT-2(2019年に発売)以来初めて、オープンソース言語モデルを再リリースしました。どちらもHugging Faceプラットフォームで無料でダウンロードでき、Apache 2.0ライセンスを使用して商用化できます。
モデルはさまざまなサイズで設計されています。120億個のパラメータは単純なNvidia GPUで実行できます。20億個のパラメータはより軽量で、16GB RAMのラップトップで良好に動作します。OpenAIによると、両方のモデルは専門家混合(MoE)アーキテクチャを使用しており、パフォーマンスを最適化するために各タスクのパラメータの一部のみを有効にします。
さまざまなスケールで、gpt-ossは、DeepSeekやQwenのようなオープンエンドの競合他社よりも優れた能力を持っていると評価されていますが、内部のoシリーズに依然として劣っています。たとえば、Codeforcesテストでは、gpt-oss-120bは2622ポイントを獲得し、DeepSeek R1よりもわずかに優れています。しかし、誤答率は依然として懸念される問題です。Gpt-ossは、PersonQA標準の質問の49〜53%以上で、o1(16%)
トレーニングに関しては、OpenAIは、高度なモデルと同様に、強化学習(RL)やマルチステップ推論チェーンなどの高度な技術を適用しています。Gpt-ossは、ウェブ検索やPythonコードの実行などのツールを呼び出すAIオブジェクトをサポートできますが、画像や音声は処理できません。
OpenAIは、著作権関連の訴訟が依然として続いている状況下で、法的理由により訓練データを公開しないと述べています。同社はまた、モデルが武器製造やサイバー攻撃などの悪意のある目的で利用されるリスクを制限するために安全テストを実施しています。
「私たちは、世界が米国で作成され、民主主義の価値観に基づいて構築されることを望んでいます」とサム・アルトマンCEOは強調しました。しかし、オープンAI競争は依然として激化しており、DeepSeek R2とMetaの新しい超知能モデルが近い将来に登場することを期待しています。