OpenAIは火曜日、Oシリーズと同様の機能を備えた2つのオープンウェイトAI推論モデルをリリースしたと発表した。両モデルはオンライン開発者プラットフォーム「Hugging Face」から無料でダウンロード可能で、オープンモデルを比較するための複数のベンチマークで測定された結果から「最先端」であると同社は述べている。
モデルには 2 つのサイズがあります。1 つは、単一の Nvidia GPU で実行できる、より大型で高性能な gpt-oss-120b モデル、もう 1 つは、16 GB のメモリを搭載したコンシューマー ラップトップで実行できる軽量の gpt-oss-20b モデルです。
このリリースは、5年以上前にリリースされたGPT-2以来、OpenAIにとって初の「オープン」言語モデルとなる。
OpenAIは説明会で、同社のオープンモデルはクラウド上のAIモデルに複雑なクエリを送信できるようになると発表しました。これはTechCrunchが以前報じた通りです。つまり、OpenAIのオープンモデルが画像処理などの特定のタスクに対応していない場合、開発者はOpenAIのより高性能なクローズドモデルに接続できるということです。
OpenAIは創業当初はAIモデルをオープンソース化していましたが、その後は一貫して独自のクローズドソース開発アプローチを好んできました。この戦略により、OpenAIはAPI経由でAIモデルへのアクセスを企業や開発者に販売する大規模なビジネスを構築しました。
しかし、CEOのサム・アルトマン氏は1月に、OpenAIは自社の技術をオープンソース化するという点で「歴史の誤った側にいた」と考えていると述べた。同社は現在、DeepSeek、アリババ傘下のQwen、Moonshot AIなど、世界で最も高性能で人気のあるオープンモデルを数多く開発してきた中国のAIラボからの圧力が高まっている。(MetaはかつてオープンAI分野を席巻していたが、同社のLlama AIモデルは昨年、後れを取っている。)
トランプ政権は7月、米国の価値観に沿ったAIの世界的な導入を促進するため、米国のAI開発者らにさらなる技術をオープンソース化するよう促した。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
OpenAIはgpt-ossのリリースにより、オープンソース分野で中国のAI研究所が台頭するのを見てきた開発者とトランプ政権の両方から支持を得たいと考えている。
「2015年の創業以来、OpenAIの使命は全人類に恩恵をもたらすAGIを実現することです」と、アルトマン氏はTechCrunchに公開した声明で述べています。「そのため、民主主義の価値観に基づき、米国で開発され、誰もが無料で利用できる、そして幅広い恩恵をもたらすオープンAIスタックを世界が活用できることを大変嬉しく思います。」

モデルのパフォーマンス
OpenAI は、自社のオープン モデルを他のオープンウェイト AI モデルのリーダーにすることを目指しており、同社はまさにそれを達成したと主張している。
競争力のあるコーディング テストである Codeforces (ツール付き) では、gpt-oss-120b と gpt-oss-20b はそれぞれ 2622 と 2516 のスコアを獲得し、DeepSeek の R1 を上回りましたが、o3 と o4-mini には及ばない結果となりました。

様々な科目(ツール付き)にわたるクラウドソーシング問題による難易度の高いテストであるHumanity's Last Exam(HLE)において、gpt-oss-120bとgpt-oss-20bはそれぞれ19%と17.3%のスコアを獲得しました。同様に、このスコアはo3より劣りますが、DeepSeekとQwenの主要なオープンモデルよりは優れています。

注目すべきは、OpenAI のオープン モデルは、同社の最新の AI 推論モデルである o3 や o4-mini よりもはるかに多くの幻覚を起こします。
OpenAIの最新のAI推論モデルでは幻覚がより深刻化しており、同社は以前、その理由を完全には理解していないと述べていました。OpenAIはホワイトペーパーの中で、これは「小規模なモデルは大規模なフロンティアモデルよりも世界に関する知識が少なく、幻覚を起こしやすい傾向があるため、予想通りの結果だ」と述べています。
OpenAIは、モデルの人物に関する知識の精度を測定するための社内ベンチマークであるPersonQAにおいて、gpt-oss-120bとgpt-oss-20bがそれぞれ質問の49%と53%に幻覚反応を示したことを発見しました。これは、OpenAIのo1モデルの幻覚反応率(16%)の3倍以上であり、o4-miniモデルの36%よりも高い数値です。
新しいモデルのトレーニング
OpenAIは、同社のオープンモデルは自社の独自モデルと同様のプロセスで学習されていると述べています。同社によると、各オープンモデルは専門家混合(MoE)を活用することで、特定の質問に対して使用するパラメータ数を減らし、より効率的に動作させているとのこと。合計1170億個のパラメータを持つgpt-oss-120bの場合、OpenAIによると、モデルはトークンあたり51億個のパラメータしかアクティブ化していないとのことです。
同社はまた、同社のオープンモデルは、NVIDIA GPUの大規模クラスターを用いたシミュレーション環境でAIモデルに正誤を学習させる、高計算能力強化学習(RL)を用いて学習されたと述べている。これはOpenAIのoシリーズモデルの学習にも使用されており、オープンモデルも同様の思考連鎖プロセスを備えており、回答を分析するために追加の時間と計算リソースが必要となる。
OpenAIは、学習後のプロセスの結果、同社のオープンAIモデルはAIエージェントの強化に優れており、思考連鎖プロセスの一環としてウェブ検索やPythonコード実行などのツールを呼び出すことができると述べています。ただし、OpenAIによると、同社のオープンモデルはテキストのみであるため、同社の他のモデルのように画像や音声を処理または生成することはできないとのことです。
OpenAIは、gpt-oss-120bとgpt-oss-20bをApache 2.0ライセンスの下でリリースします。これは、一般的に最も寛容なライセンスの一つと考えられています。このライセンスにより、企業はOpenAIから料金を支払ったり許可を得たりすることなく、OpenAIのオープンモデルを収益化できるようになります。
OpenAIはここ数ヶ月、安全性への懸念などから、オープンモデルのリリースを数回延期してきました。同社はホワイトペーパーの中で、同社の通常の安全ポリシーに加え、悪意のある人物がgpt-ossモデルを微調整してサイバー攻撃や生物兵器・化学兵器の製造に役立てる可能性についても調査したと述べています。
同社は、OpenAIと第三者評価機関によるテストの結果、gpt-ossは生物学的能力をわずかに向上させる可能性があると述べています。しかし、微調整後であっても、これらのオープンモデルがこれらの領域における危険に対する「高能力」の閾値に到達できるという証拠は見つかりませんでした。
OpenAI のモデルはオープン モデルの中でも最先端のものであると思われますが、開発者たちは同社の次期 AI 推論モデルである DeepSeek R2 と、Meta の Superintelligence Lab の新しいオープン モデルのリリースを心待ちにしています。