サンフランシスコを拠点とするスタートアップ企業 OpenAI が開発した無料のテキスト生成 AI である ChatGPT をヒットと呼ぶのは控えめな表現だ。
12月時点で、ChatGPTの月間アクティブユーザー数は推定1億人を超えています。主要メディアの注目を集め、ソーシャルメディア上で数え切れないほどのミームを生み出しました。Amazon Kindleストアで数百冊の電子書籍の執筆に利用され、少なくとも1本の科学論文の共著者としても認められています。
しかし、OpenAIは利益上限はあるものの企業であるため、投資家の不安を招かないよう、何らかの方法でChatGPTを収益化する必要がありました。同社は2月にプレミアムサービス「ChatGPT Plus」を開始し、その第一歩を踏み出しました。そして本日、さらに大きな動きとして、あらゆる企業が自社のアプリ、ウェブサイト、製品、サービスにChatGPT技術を組み込めるAPIを導入しました。
APIは当初から計画されていた。OpenAIの社長兼会長であり、共同創設者の一人でもあるグレッグ・ブロックマン氏によると、そうだったという。彼は昨日の午後、ChatGPT APIのリリースに先立ち、ビデオ通話で私と話してくれた。
「これらのAPIを一定の品質レベルにまで引き上げるには、しばらく時間がかかります」とブロックマン氏は述べた。「需要と規模に応えられるかどうかが、まさにこの段階だと思います。」
ブロックマン氏によると、ChatGPT APIは、OpenAIの非常に人気のあるChatGPTの背後にある「gpt-3.5-turbo」と呼ばれる同じAIモデルを搭載しているという。GPT-3.5は、OpenAIが現在APIスイートを通じて提供している最も強力なテキスト生成モデルであり、「turbo」という名称は、OpenAIがChatGPT向けにひっそりとテストしてきたGPT-3.5の最適化され、より応答性の高いバージョンを指している。
1,000トークン(約750語)あたり0.002ドルという価格で、ブロックマン氏はこのAPIが「非チャット」アプリケーションを含む幅広いエクスペリエンスを実現できると主張している。Snap、Quizlet、Instacart、Shopifyなどが早期導入企業に名を連ねている。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
gpt-3.5-turbo開発の当初の動機は、ChatGPTの膨大な計算コストを削減することだったのかもしれません。OpenAIのCEO、サム・アルトマン氏はかつて、ChatGPTの費用を「涙が出るほど」と評し、1チャットあたり数セントの計算コストと見積もっていました。(100万人以上のユーザーがいるため、おそらくすぐに費用は膨らむでしょう。)
しかし、ブロックマン氏は、gpt-3.5-turbo は他の点でも改良されていると述べています。
「AIを活用した家庭教師を作る場合、生徒にただ答えを与えるだけの家庭教師は望ましくありません。常に説明を行い、学習をサポートしてくれることが求められます。これが、APIを使って構築できるシステムの一例です」とブロックマン氏は述べた。「このAPIによって、APIの使い勝手とアクセス性が大幅に向上すると考えています。」
ChatGPT APIは、Snapchatが最近発表したSnapchat+加入者向けチャットボット「My AI」と、Quizletの新しいバーチャルチューター機能「Q-Chat」の基盤となっています。ShopifyはChatGPT APIを活用して、買い物のおすすめを提案するパーソナライズされたアシスタントを構築し、Instacartはこれを活用してAsk Instacartを開発しました。Ask Instacartは、Instacartの顧客が食品について質問すると、同社の小売パートナーの製品データに基づいた「買い物しやすい」回答が得られる、近日公開予定のサービスです。
「食料品の買い物は、予算、健康と栄養、個人の好み、季節、料理の腕、準備時間、レシピのインスピレーションなど、多くの要素が絡み合うため、大きな精神的負担を伴うことがあります」と、InstacartのチーフアーキテクトであるJJ Zhuang氏はメールで語った。「AIがその精神的負担を引き受け、食料品の買い物、献立、食卓への料理の用意など、一般的に家庭のリーダーである人たちを助け、食料品の買い物を本当に楽しいものにできたらどうでしょうか?InstacartのAIシステムをOpenAIのChatGPTと統合すれば、まさにそれが実現できます。Instacartアプリで何ができるのか、実験を始められることを大変嬉しく思っています。」

しかし、ChatGPT の物語を注意深く追ってきた人たちは、それがリリースの時期を迎えているかどうか疑問に思っているかもしれません。そして、それは当然のことです。
当初、ユーザーはChatGPTに人種差別的、性差別的な方法で質問に答えるように促すことができました。これは、ChatGPTが最初にトレーニングされた偏ったデータを反映していました。(ChatGPTのトレーニングデータには、電子書籍、Redditの投稿、Wikipediaの記事など、幅広いインターネットコンテンツが含まれています。)また、ChatGPTは、そうしていることを明らかにせずに事実を捏造しますが、これはAIでは幻覚と呼ばれる現象です。
ChatGPTや類似のシステムは、プロンプトベースの攻撃、つまり悪意のある敵対的なプロンプトによって本来の目的とは異なるタスクを実行させられる危険性があります。Redditでは、ChatGPTを「脱獄」し、OpenAIが導入したあらゆる安全対策を回避する方法を探るコミュニティが形成されています。比較的軽微な例としては、スタートアップ企業Scale AIのスタッフがChatGPTから内部の技術的仕組みに関する情報を漏洩させることに成功したケースがあります。
ブランドは間違いなく、標的にされることを望まないだろう。ブロックマン氏は、そうはならないと断言する。なぜだろうか?彼によると、理由の一つはバックエンドの継続的な改善であり、場合によってはケニアの契約労働者を犠牲にしているという。しかし、ブロックマン氏は、OpenAIがChat Markup Language(ChatML)と呼ぶ新しい(そして明らかに物議を醸すことのない)アプローチを強調した。ChatMLは、メタデータとともに一連のメッセージとしてテキストをChatGPT APIに渡す。これは、一連のトークンとして表現された生のテキストを処理する標準的なChatGPTとは対照的だ(例えば、「fantastic」という単語は、「fan」「tas」「tic」というトークンに分割される)。
例えば、「30歳の誕生日に面白いパーティーのアイデアはありますか?」というプロンプトに対して、開発者はChatGPT APIに処理させる前に、「あなたはユーザーの質問に答えるために設計された、楽しい会話型チャットボットです。正直に、そして楽しく答えてください!」や「あなたはボットです」といった追加のプロンプトをプロンプトに追加することができます。ブロックマン氏によると、これらの指示はChatGPTモデルの応答をより適切にカスタマイズし、フィルタリングするのに役立ちます。
「私たちはより高レベルのAPIに移行しています。システムへの入力をより構造的に表現する方法、つまり『これは開発者からのものです』『これはユーザーからのものです』と区別できる方法があれば…開発者として、ChatMLを使うことで、こうしたプロンプト攻撃に対してより強固な防御策を講じることができるはずです」とブロックマン氏は述べた。
ChatGPTの意図しない動作を(願わくば)防ぐもう一つの変更は、モデルの更新頻度を上げることです。ブロックマン氏によると、gpt-3.5-turboのリリースに伴い、開発者はデフォルトでOpenAIの最新の安定モデルに自動的にアップグレードされ、gpt-3.5-turbo-0301(本日リリース)から利用できるようになります。ただし、開発者は希望に応じて古いモデルを使い続けることも可能であり、その場合、このメリットが多少相殺される可能性があります。
最新モデルへのアップデートを選択するかどうかに関わらず、ブロックマン氏は、一部の顧客(主に大規模な予算を持つ大企業)が専用キャパシティプランの導入により、システムパフォーマンスをより深く制御できるようになると指摘しています。今月初めにリークされた資料で初めて詳細が明らかになったOpenAIの専用キャパシティプランは、本日開始され、顧客がOpenAIモデル(例えばgpt-3.5-turbo)を実行するためのコンピューティングインフラストラクチャの割り当てに対して料金を支払うというものです。(ちなみに、バックエンドはAzureです。)
インスタンスの負荷を「完全に制御」できることに加え(通常、OpenAI APIの呼び出しは共有コンピューティングリソース上で行われます)、専用キャパシティーを利用することで、より長いコンテキスト制限などの機能を有効にできるようになります。コンテキスト制限とは、モデルが追加のテキストを生成する前に考慮するテキストを指します。コンテキスト制限が長いほど、モデルはより多くのテキストを「記憶」できるようになります。コンテキスト制限を高くしても、バイアスや毒性の問題がすべて解決されるわけではありませんが、gpt-3.5-turboのようなモデルでは幻覚反応が少なくなる可能性があります。
ブロックマン氏によると、専用容量の顧客は最大16Kのコンテキストウィンドウを備えたgpt-3.5-turboモデルを利用できるとのことです。つまり、標準のChatGPTモデルの4倍のトークンを処理できるということです。例えば、何ページにも及ぶ税務コードを貼り付けて、モデルから妥当な回答を得ることができるようになるかもしれません。これは現時点では不可能なことです。
ブロックマン氏は、将来的には一般公開する予定だが、すぐにではないと示唆した。
「コンテキストウィンドウは徐々に拡大し始めています。現在、専用容量のお客様のみを対象としている理由の一つは、パフォーマンス面でのトレードオフが当社側に多くあるからです」とブロックマン氏は述べた。「最終的には、同じ機能のオンデマンド版も提供できるようになるかもしれません。」
マイクロソフトからの数十億ドルの投資を受けて、OpenAI が利益を上げるよう圧力が高まっていることを考えると、これはそれほど驚くことではないだろう。