Stability AIがChatGPTのような言語モデルをリリース

Stability AIがChatGPTのような言語モデルをリリース

生成 AI アート ツール Stable Diffusion を開発するスタートアップ企業 Stability AI は本日、OpenAI の GPT-4 などのシステムと真っ向から競合することを目的とした一連のテキスト生成 AI モデルをオープンソース化しました。

StableLMと呼ばれ、GitHubとAIモデルおよびコードをホストするプラットフォームであるHugging Faceで「アルファ版」として入手可能なこのモデルは、コードとテキストの両方を生成でき、「適切なトレーニングを行うことで、小型で効率的なモデルがいかに高いパフォーマンスを発揮できるかを実証」できるとStability AIは述べている。

「言語モデルはデジタル経済の基盤となるため、誰もがその設計に意見を述べられるようにしたい」とスタビリティーAIチームは同社サイトのブログ投稿に記した。

これらのモデルは、「The Pile」と呼ばれるデータセットで学習されました。これは、PubMed、StackExchange、Wikipediaなどのウェブサイトからスクレイピングされたテキストサンプルを組み合わせたものです。しかし、Stability AIは、標準のPileデータセットのサイズを3倍に拡張するカスタムトレーニングセットを作成したと主張しています。

安定性AI StableLM
画像クレジット: Stability AI

Stability AIはブログ記事の中で、StableLMモデルが他のモデルと同様の限界、つまり特定のプロンプトに対して有害な反応を生成したり、事実を幻覚(つまり捏造)したりする傾向があるかどうかについては言及していません。しかし、「The Pile」には冒とく的な言葉、卑猥な言葉、その他かなり攻撃的な言葉が含まれていることを考えると、もしそうであったとしても不思議ではありません。

記者はHugging Faceでモデルをテストしてみました。Hugging Faceは、コードを一から設定しなくてもモデルを実行できるフロントエンドを提供しています。残念ながら、毎回「容量オーバー」というエラーが発生しました。これはモデルのサイズ、あるいは人気度に関係している可能性があります。

「追加の微調整や強化学習を施さない、事前学習済みの大規模言語モデルではよくあることですが、ユーザーが受け取る応答の質は様々で、不快な言葉や見解が含まれる可能性があります」と、Stability AIはStableLMのリポジトリに記しています。「これは、規模の拡大、データの品質向上、コミュニティからのフィードバック、そして最適化によって改善されると期待されます。」

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

それでも、StableLMモデルは、特にアルファ版に含まれる微調整版は、その性能の点でかなり優れているように思われます。スタンフォード大学が開発したAlpacaと呼ばれる手法を用いて、AIスタートアップ企業Anthropicを含むオープンソースデータセットで調整された微調整版StableLMモデルは、ChatGPTのように動作し、「ソフトウェア開発者向けのカバーレターを書いてください」や「壮大なラップバトルソングの歌詞を書いてください」といった指示(時にはユーモアを交えて)に応答します。

ますます収益性の高い生成AI分野で、大小さまざまな企業が知名度を競い合う中、オープンソースのテキスト生成モデルの数はほぼ日ごとに増加しています。過去1年間で、Meta、Nvidia、そしてHugging Faceが支援するBigScienceプロジェクトなどの独立系グループが、GPT-4やAnthropicのClaudeといった「プライベート」かつAPI経由で利用可能なモデルとほぼ同等のモデルをリリースしてきました。

過去には、StableLMのようなオープンソースモデルの公開を批判する研究者もおり、フィッシングメールの作成やマルウェア攻撃の支援といった悪質な目的に利用される可能性があると主張してきました。しかし、Stability AIは、オープンソース化こそが実際には正しいアプローチであると主張しています。

「透明性を高め、信頼を育むため、モデルをオープンソース化しています。研究者は『内部を覗き込む』ことで、性能検証、解釈可能性技術の開発、潜在的リスクの特定、そして安全対策の開発に協力することができます」とStability AIはブログ記事で述べています。「当社のモデルへのオープンできめ細かなアクセスにより、幅広い研究・学術コミュニティが、クローズドモデルでは不可能な解釈可能性と安全性技術を開発することが可能になります。」

安定性AI StableLM
画像クレジット: Stability AI

確かに、ある程度は真実かもしれません。GPT-4のような、フィルターや人間によるモデレーションチームを備えた、ゲートキーピングされた商用モデルでさえ、有害な情報を吐き出すことが示されています。しかし、オープンソースモデルは、バックエンドでの調整や修正により多くの労力を要します。特に開発者が最新のアップデートに追いついていない場合はなおさらです。

いずれにせよ、Stability AI は歴史的に見て論争を避けてはいません。

さらに、ブログ記事では慈善的なトーンを漂わせているものの、Stability AIは、アートやアニメーションからバイオメディカル、ジェネレーティブオーディオまで、幅広い取り組みを収益化する必要に迫られています。Stability AIのCEO、エマド・モスタク氏は IPO計画を 示唆していますが、セマフォーは最近、昨年10月に1億ドル以上のベンチャーキャピタル資金を調達し、評価額は10億ドル以上と報じられたStability AIが「資金が枯渇し、収益の創出が遅れている」と報じました。

カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。

バイオを見る