OpenAIは、大規模な人工知能システムの処理速度とコストを最適化するために設計された2つの新しいモデル、GPT-5.4 miniとGPT-5.4 nanoを発表しました。同時に、高度なバージョンであるGPT-5.4から多くの能力を引き継いでいます。
これは、同社がGPT-4を発表した後の次のステップです。GPT-4は、柔軟なフィードバック方向の調整、詳細なウェブ調査の改善、および長い文脈での推論の強化を特徴とするバージョンです。
その中で、GPT-5.4 miniは、以前のGPT-5 miniと比較して大幅なアップグレード版と見なされています。
このモデルは、プログラミング、推論、多角的理解、およびツールの使用の能力を大幅に向上させます。
特筆すべきは、GPT-5.4 miniの処理速度が2倍速い一方で、運用コストは大幅に低いことです。
パフォーマンステストによると、このモデルはGPT-5.4とほぼ同等のタスク完了率を達成しましたが、遅延とコストが最適であり、特に大規模なプログラミングプロセスに適しています。
より低いセグメントでは、GPT-5.4ナノは、データ分類、情報抽出、コンテンツランキング、および単純なコーディング問題など、速度とコストを優先するタスク向けに設計されています。
これは、ほぼ即時の応答を必要とする大量処理システムに適した選択肢です。
新しいモデルは、遅延がユーザーエクスペリエンスに直接影響を与えるシナリオに焦点を当てています。
たとえば、プログラミングアシスタントは迅速な応答を必要とし、AIサブエージェントは並行タスクを処理し、マルチメディアアプリケーションはリアルタイムで画像を分析する必要があります。
注目すべき点は、マルチモデリングシステムでの展開能力です。Codexプラットフォームでは、GPT-5.4は、ソースコードの検索、ドキュメントの読み取り、並行処理ミニモデルのファイル分析などの小さなタスクの調整および分割の役割を果たすことができます。
統合機能に関して、GPT-5.4 miniはAPI、Codex、ChatGPTに搭載されています。モデルは、テキスト入力、画像、関数呼び出し、ウェブ検索、ファイル処理をサポートし、最大400,000トークンのコンテキストウィンドウを備えています。
ChatGPTでは、FreeおよびGoユーザーは「Thinking」オプションを介してアクセスでき、GPT-5.4が速度制限に達した場合のバックアップオプションでもあります。
一方、GPT-5.4ナノは現在API経由でのみ提供されており、AIを最も低コストで展開する必要がある企業を対象としています。
価格について、GPT-5.4 miniは入力トークン100万枚あたり0.75米ドル、出力トークンは4.5米ドルです。
GPT-5.4ナノの場合、コストはそれぞれ0.2米ドルと1.25米ドルであり、OpenAIがAIへのアクセスをより多くのターゲットに拡大する明確な戦略を示しています。