GPT-4の出力をループする「自律型」AIエージェントへの期待が高まる

GPT-4の出力をループする「自律型」AIエージェントへの期待が高まる

職人による少量生産のAGI

AutoGPT と BabyAGI は GPT AI エージェントを実行して、複雑なタスクを反復的に完了します。

「自己改善ロボット、カラフルでワイルドなイラスト、水彩画」

AIが生成した「自己改善ロボット」の画像。クレジット:Midjourney

AIが生成した「自己改善ロボット」の画像。クレジット:Midjourney

先月OpenAIのGPT-4 APIがベータテスター向けにリリースされて以来、開発者の緩やかなグループが、人間の介入を可能な限り少なくして複数段階のタスクを実行しようとする、エージェントのような(「エージェント的」)AIモデルの実装を試行してきました。これらの自作スクリプトは、必要に応じてループ処理や反復処理を行い、AIモデルの新しいインスタンスを生成することができます。

特に、Toran Bruce Richards氏が作成した Auto-GPTとYohei Nakajima氏が作成した BabyAGI という 2 つの実験的なオープンソース プロジェクトが、ソーシャル メディアで大きな注目を集めています。

一体何をするのでしょうか?今のところ、それほど多くのことをしていません。人間の介入やサポートが大量に必要となるため、約束されたほどの自律性はまだありません。しかし、これは、より複雑なAIモデルの連鎖化に向けた初期段階であり、単一のAIモデルが単独で動作するよりも優れた能力を発揮する可能性があります。

「設定した目標を自律的に達成する」

リチャーズ氏は、このスクリプトを「GPT-4言語モデルの機能を紹介する実験的なオープンソースアプリケーション」と謳っています。このスクリプトは「LLMの『思考』を連鎖させ、設定した目標を自律的に達成します」。

基本的に、Auto-GPTはGPT-4からの出力を受け取り、それを即席の外部メモリにフィードバックすることで、タスクをさらに反復処理したり、間違いを修正したり、改善策を提案したりします。理想的には、このようなスクリプトは、あらゆるデジタルタスクを自動で実行できるAIアシスタントとして機能する可能性があります。

これらの主張を検証するために、Windowsマシン上でローカルにAuto-GPT(Pythonスクリプト)を実行しました。起動すると、AIエージェントの名前、役割の説明、そして達成しようとする5つの目標のリストを入力するよう求められます。設定時には、OpenAI APIキーとGoogle検索APIキーを提供する必要があります。実行中、Auto-GPTはデフォルトで生成するすべてのステップを実行する許可を求めますが、冒険したい方のために完全自動モードも用意されています。

「ビンテージのエアジョーダンを購入する」といったタスクを与えられた場合、Auto-GPTは複数段階のプランを作成し、実行を試みます。例えば、靴の販売店を検索し、まず条件に合う特定の靴を探すといった具合です。しかし、現時点では実際に何も購入できないため、そこで処理は停止します。適切な購入APIに接続すれば、購入は可能になるかもしれません。

Auto-GPT がどのような機能を持つのかを自分で体験したい場合は、同じように機能する AgentGPT という Web ベースのバージョンが作成されたことがあります。

リチャーズ氏は、Auto-GPTの目標について非常にオープンに語ってきました。それは、AGI(汎用人工知能)の開発です。AIにおいて「汎用知能」とは、一般的に、AIシステムが幅広いタスクを実行し、特にプログラムや訓練を受けていない問題を解決できる、まだ仮説的な能力を指します。

Auto-GPT をベースにした AgentGPT が、ビンテージの Air Jordan シューズの購入を試みるタスクを実行しているスクリーンショット。

Auto-GPT をベースにした AgentGPT が、ビンテージの Air Jordan シューズの購入を試みるタスクを実行しているスクリーンショット。

クレジット: Ars Technica

Auto-GPTをベースにしたAgentGPTが、ビンテージのエアジョーダンを購入しようとするタスクを実行しているスクリーンショット。クレジット:Ars Technica

ある程度知能のある人間と同様に、汎用知能を持つシステムは、事前に定義された一連のルールやパターンに従うだけでなく、新たな状況に適応し、経験から学習できる必要があります。これは、特定のタスクを実行したり、限られた範囲のコンテキスト内で動作するように設計された、狭義または特化型の知能(「狭義AI」と呼ばれることもあります)を持つシステムとは対照的です。

一方、BabyAGI(汎用人工知能の実現を目指すという野心的な目標にちなんで名付けられた)は、Auto-GPTと同様の動作をしますが、タスク指向の特色が異なります。「God Mode」という、あまり控えめではないタイトルのWebサイトで、そのバージョンを試すことができます。

BabyAGIの開発者である中島氏は、3月にGPT-4を用いてAI共同創業者のような形でビジネスを自動構築しようとする「HustleGPT」ムーブメントを目の当たりにしたことを受けて、このスクリプトを制作するきっかけを得たと語っています。「完全なAI創業者を構築できるのではないかと興味を持ったのです」と中島氏は語ります。

Auto-GPTとBabyAGIがAGIに及ばない理由は、GPT-4自体の限界にあります。テキストの変換・解析ツールとしては優れた性能を持つGPT-4ですが、MicrosoftがGPT-4にAGI的な動作の「兆候」を見たという主張があるにもかかわらず、解釈知能の範囲は依然として狭いと感じられます。実際、Auto-GPTのようなツールの現時点での有用性が限られていることは、大規模言語モデルの現状における限界を示す最も強力な証拠となるかもしれません。しかし、だからといって、これらの限界が最終的に克服されないというわけではありません。

また、LLMが勝手に作り話をしてしまうという作話の問題は、これらのエージェントのようなアシスタントの有用性を大きく制限する可能性があります。例えば、あるTwitterのスレッドでは、ある人がAuto-GPTを使って、ウェブ検索と各企業の製品レビューを参考に、防水靴を製造している企業に関するレポートを生成していました。この過程のどの段階でも、GPT-4は分析に使用したレビュー、製品、あるいは企業全体を「幻覚」として作り出してしまう可能性がありました。

BabyAGIの有用な応用例について尋ねられた中島氏は、ギャレット・スコット氏が開発中の「Do Anything Machine」というプロジェクト以外に具体的な例を挙げることができませんでした。このプロジェクトは、自動実行型のToDoリストの作成を目指しており、現在開発中です。公平を期すために言うと、BabyAGIプロジェクトはまだ開始されてからわずか1週間ほどです。「これはどちらかといえばフレームワークやアプローチの入門であり、最もエキサイティングなのは、人々がこのアイデアに基づいて何を構築しているかということです」と彼は言います。

自動車業界のハッスル

これらのプロジェクトが「ハッスル」と金儲けに焦点を当てていることは、多少の疑問を抱かせるかもしれません。過去1年間で、Twitter、Instagram、TikTok、YouTubeなどのプラットフォーム上で、生成AIを軸にソーシャルメディアインフルエンサーによる小規模な家内工業が出現しました。Mashableはこれらの人々を「ハッスルブラザーズ」と呼び、彼らはChatGPTを使って自動的に収入を得られるなど、しばしば誇張された主張を広めています。Auto-GPTの登場により、この集団は自律型AIエージェントをビジネスの構築や金儲けに活用するというアイデアにすぐに飛びつきました。

自動 GPT コンソールのスクリーンショット。

Auto-GPTを初めて起動すると、AIエージェントの名前とその役割を入力するよう求められます。例として、「あなたの純資産を増やすことを唯一の目的として、自律的にビジネスを開発・運営するように設計されたAI」が挙げられます。

クレジット: Ars Technica

Auto-GPTを初めて起動すると、AIエージェントの名前と役割を入力するように求められます。例として、「あなたの純資産を増やすことを唯一の目的として、自律的にビジネスを開発・運営するように設計されたAI」が挙げられます。クレジット:Ars Technica

Auto-GPT自体も、この熱狂的な盛り上がりに乗じているようです。ツールを起動すると、AIエージェントの名前とその役割を入力するように求められます。例として挙げられているのは、「あなたの純資産を増やすことを唯一の目的として、自律的にビジネスを開発・運営するように設計されたAI」です。

ここで述べた制限にもかかわらず、Auto-GPT と BabyAGI のコードをさまざまな言語やプラットフォームに急速に適応させようと、多くの人がドル記号を目に浮かべながら、できる限りの努力を続けてきました。

ChatGPT技術を活用して自律エージェントを構築するというこの新しいアプローチは、コミュニティ全体で多くの新しいアイデアを生み出したようです」と中島氏は語る。「人々がこの技術をベースに様々な方法で構築しているのを見るのは素晴らしいことで、開発者や創業者の間でコラボレーションと学びの共有を支援できる機会に興奮しています。」

しかしそれは危険ですか

爆発に包まれた地球をAIが生成した画像。

爆発に包まれた地球を、AI がセンセーショナルに双曲線的に生成した画像。

クレジット: 安定拡散

爆発に包まれた地球を描いた、AIが生成したセンセーショナルで双曲線的な画像。クレジット:Stable Diffusion

AI コミュニティの著名な声が、人類の文明を守るために強力な AI モデルの開発を「一時停止」するよう求めている世界において、Auto-GPT や BabyAGI のような自律型 AI エージェントは危険なのかという疑問が残ります。

リチャーズ氏とナカジマ氏は、いわゆる「自律型」AIシステムを用いた実験を行った最初の人物ではありません。GPT-4の安全性試験において、OpenAIと共同研究する研究者たちは、GPT-4が自律的に行​​動して目標を立て、実行できるかどうかを確認しました。彼らはおそらく、これを実現するために同様の連鎖的な設定を考案したのでしょう。また、OpenAIは有害な結果をもたらさないよう、人間のフィードバックを用いてGPT-4モデルを条件付けすることに尽力してきました。

AIの終末論的なビジョンに焦点を当てたコミュニティで知られるインターネットフォーラム、Lesswrongのメンバーは、現時点ではAuto-GPTについて特に懸念しているようには見えませんが、強力なAIモデルがオープンなインターネットに「逃げ出し」、大混乱を引き起こすことを表面上は懸念しているのであれば、自律型AIはリスクのように思えるかもしれません。GPT-4がしばしば宣伝されているほど高性能であれば、彼らはもっと懸念するかもしれません。

BabyAGIのようなプロジェクトが危険である可能性があると思うかと尋ねられたとき、開発者はそのような懸念を一蹴した。「あらゆる技術は、思慮深く、潜在的なリスクに注意を払って実装されなければ、危険になり得ます」と中島氏は言う。「BabyAGIはフレームワークの入門です。その機能はテキスト生成に限定されているため、脅威となることはありません。」

リスト画像: Midjourney

ベンジ・エドワーズの写真

ベンジ・エドワーズはArs TechnicaのシニアAIレポーターであり、2022年に同サイトのAI特集ページを設立しました。また、約20年の経験を持つテクノロジー史家でもあります。余暇には、音楽の作曲・録音、ヴィンテージコンピューターの収集、そして自然を楽しんでいます。ノースカロライナ州ローリー在住。

149 件のコメント

  1. 最も読まれている記事の最初の記事のリスト画像:Apple iPhone 17 Proレビュー:カメラ目線で購入、バッテリー目線で購入