人工知能はすでに地政学を覆している

人工知能はすでに地政学を覆している

TechCrunch Global Affairs Project は、テクノロジー業界と世界政治のますます複雑化する関係を調査します。

地政学的主体は常にテクノロジーを自らの目的達成のために利用してきました。他のテクノロジーとは異なり、人工知能(AI)は単なるツールをはるかに超えるものです。私たちはAIを擬人化したり、AIが独自の意図を持っていると示唆したりするつもりはありません。AIはまだ道徳的な主体ではありません。しかし、急速に私たちの集団的運命を決定づける主要な要因になりつつあります。AIの独自の特性、そしてバイオテクノロジーからナノテクノロジーに至るまでの他の分野への影響により、AIは既に世界の平和と安全保障の基盤を脅かしていると私たちは考えています。

AI技術の急速な発展と新たな応用分野の広がり(世界のAI市場規模は2020年から2028年にかけて9倍以上に拡大すると予想されている)により、AIシステムは十分な法的監督や倫理的影響の十分な考慮なしに広く導入されている。このギャップは「ペース不足」とも呼ばれ、立法府や行政府は対応しきれない状況に陥っている。

結局のところ、新しいテクノロジーの影響は予測が難しい場合が多い。スマートフォンやソーシャルメディアは、その悪用の可能性が十分に認識されるずっと前から日常生活に浸透していた。同様に、顔認識技術がプライバシーや人権侵害に及ぼす影響を認識するのにも時間がかかった。

一部の国では、人々がどのような情報を見ているかを判断し、監視機能を使って表現の自由を制限することで世論を操作するために AI を導入するでしょう。
TechCrunch Global Affairs Projectの詳細はこちら

さらに先を見据えると、現在研究されている課題のどれがイノベーションにつながるのか、また、それらのイノベーションが互いに、そしてより広い環境とどのように相互作用するのかについてはほとんどわかりません。

これらの問題はAIにおいて特に深刻です。学習アルゴリズムが結論に至る手段はしばしば不可解であるためです。望ましくない影響が明らかになった場合、その原因を特定するのは困難、あるいは不可能になることがあります。常に学習し、動作を変化させるシステムは、安全性を継続的にテストし、認証することは不可能です。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

AIシステムは、人間の介入をほとんど、あるいは全く必要とせずに行動することができます。危険なシナリオを想像するのに、SF小説を読む必要はありません。自律システムは、世界における行動に対して責任を負う主体(人間であれ企業であれ)が常に存在すべきであるという原則を損なう危険性があります。特に戦争と平和の問題においてはなおさらです。私たちはシステム自体に責任を負わせることはできません。そして、システムを導入する側は、システムが予測不可能な行動をとった場合、自分たちには責任がないと主張するでしょう。

つまり、私たちの社会は政治的、法的、倫理的にAIへの備えができていないと私たちは考えています。また、世界もAIが地政学や国際関係の倫理をどのように変革するかについて、まだ準備ができていません。私たちは、AIが起こり得る3つの可能性を特定しています。

まず、AIの発展は国家間の力関係をシフトさせるでしょう。テクノロジーは常に地政学的な力関係を形作ってきました。19世紀から20世紀初頭にかけて、国際秩序は蒸気船や航空機といった新興産業の力に基づいていました。その後、石油と天然ガス資源の支配がより重要になりました。

主要国は皆、AIが国家の課題を推進する上で大きな可能性を秘めていることを痛感しています。2017年9月、ウラジーミル・プーチン大統領は小学生たちにこう語りました。「AIのリーダーとなる者は、世界の支配者となるだろう」。現在、AI分野では米国がリードしていますが、中国のテクノロジー企業は急速に進歩しており、顔認識ソフトウェアといった特定の研究分野の開発と応用においては、間違いなく優位に立っています。

大国によるAIの支配は、既存の構造的な不平等を悪化させ、新たな形の不平等を生み出すでしょう。既にインターネットへのアクセスが不足し、より裕福な国の援助に依存している国々は、大きく取り残されるでしょう。AIを活用した自動化は、一部の国の経済を他の国よりも有利にする形で雇用パターンを変革するでしょう。

第二に、AIは国家を超えた新たな地政学的プレーヤー群に力を与えるでしょう。ある意味では、デジタルテクノロジーのリーディングカンパニーは既に多くの国家よりも強力です。フランスのエマニュエル・マクロン大統領が2019年3月に問いかけたように、「デジタルの巨人たちを前に、一体誰が単独で主権国家であると主張できるでしょうか?」

最近のウクライナ侵攻はその一例です。各国政府はロシア連邦に対し経済制裁を課すことで対応しました。しかし、IBM、Dell、Meta、Apple、Alphabetといった企業がロシアでの事業を停止するという決定を下したことも、少なくとも同等の影響を与えたと言えるでしょう。

同様に、ウクライナは侵攻によってインターネット接続が途絶えることを恐れ、友好的な政府ではなく、テクノロジー起業家のイーロン・マスクに支援を要請しました。マスクはこれに対し、ウクライナでスターリンク衛星インターネットサービスを開始し、受信機を配布することで対応し、同国が通信を継続できるようにしました。

機械学習アルゴリズムの原動力となる大規模かつ成長を続けるデータベースへのアクセスを持つデジタル寡占は、急速にAI寡占へと発展しつつあります。米国と中国の大手企業は、莫大な資金力を活かして、新たなアプリケーションを開発したり、有望なツールを開発する中小企業を買収したりすることができます。機械学習システムは、AI寡占が国の規制を回避する上で役立つ可能性もあります。

第三に、AIは新たな形態の紛争の可能性を生み出すでしょう。これは、偽メディアやソーシャルメディアの投稿操作を通じて他国の世論や選挙結果に影響を与えることから、電力、交通、通信といった他国の重要インフラの運用を妨害することまで多岐にわたります。

このような形態の紛争は管理が困難であることが証明され、強制兵器への対処に適さない軍備管理手段の抜本的な見直しが迫られるでしょう。現在の軍備管理交渉では、敵対国が互いの能力と軍事的必要性を明確に認識する必要があります。しかし、例えば核爆弾の開発と運用には限界があるのに対し、AIは能力が急速かつ不透明に発展する可能性があるため、ほぼあらゆることが可能です。

配備を制限する強制力のある条約がなければ、既製の部品で組み立てられた自律型兵器システムは、最終的にはテロリストやその他の非国家主体に利用可能となる。また、十分に理解されていない自律型兵器システムが、意図せず紛争を引き起こしたり、既存の敵対行為をエスカレートさせたりする可能性も非常に高い。

AIの地政学的リスクを軽減し、必要となる機動的かつ包括的な監視を提供する唯一の方法は、AIの利点、限界、そして複雑さについてオープンな対話を行うことです。G20は議論の場として有望であり、あるいは民間セクターやその他の主要なステークホルダーを巻き込んだ新たな国際的なガバナンスメカニズムを構築することも考えられます。

国際安全保障、経済繁栄、公共の利益、そして人類の幸福は、殺傷兵器システムの拡散と気候変動への対応にかかっていることは広く認識されています。私たちは、これらの課題は、AIをはじめとする新興技術の発展と方向性を形作る私たちの集団的能力に、少なくとも同等に大きく依存するようになると確信しています。
TechCrunch Global Affairs Projectの詳細はこちら