フランスのスタートアップ企業が、AIアプリケーションをより効率的に構築・トレーニングしたい開発者向けに「コンピューティング・インフラストラクチャを再設計」するための多額のシード投資を調達した。
FlexAIと呼ばれるこの会社は2023年10月からステルスで活動してきたが、パリを拠点とする同社は水曜日に2,850万ユーロ(3,000万ドル)の資金を調達して正式にスタートし、最初の製品であるAIトレーニング用のオンデマンドクラウドサービスを発表した。
これはシードラウンドとしてはかなりの額であり、通常は創業者の経歴が豊富なことを意味するが、今回の資金調達もまさにその通りだ。FlexAIの共同創業者兼CEOであるブリジェシュ・トリパシ氏は、以前はGPU大手で現在はAIの寵児であるNvidiaでシニアデザインエンジニアを務め、その後はApple、Tesla(イーロン・マスクの直下で勤務)、Zoox(Amazonが自動運転スタートアップを買収する前)でシニアエンジニアリングおよびアーキテクトの役職を歴任し、直近ではIntelのAIおよびスーパーコンピューティングプラットフォーム部門であるAXGの副社長を務めていた。
FlexAIの共同創業者兼CTOであるDali Kilani氏も素晴らしい経歴の持ち主で、NvidiaやZyngaを含む企業でさまざまな技術職を務め、最近ではヘルスケア業界向けのデジタルインフラを開発するフランスのスタートアップ企業LifenでCTOを務めています。
シードラウンドは、Alpha Intelligence Capital (AIC)、Elaia Partners、Heartcore Capitalが主導し、Frst Capital、Motier Ventures、Partech、InstaDeep CEO Karim Beguirが参加した。

コンピューティングの難問
Tripathi 氏と Kilani 氏が FlexAI で何を試みているのかを理解するには、まず開発者や AI 実践者が「コンピューティング」へのアクセスに関してどのような課題に直面しているかを理解することが重要です。コンピューティングとは、データの処理、アルゴリズムの実行、機械学習モデルの実行などの計算タスクを実行するために必要な処理能力、インフラストラクチャ、リソースを指します。
「AI分野のインフラの利用は複雑です。気の弱い人や経験の浅い人には向いていません」とトリパシ氏はTechCrunchに語った。「インフラを構築する方法について、使いこなす前に多くの知識が必要になります。」
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
対照的に、過去 20 年にわたって進化してきたパブリック クラウド エコシステムは、バックエンドをあまり気にせずにアプリケーションを構築したいという開発者のニーズから業界が生まれたことを示す好例です。
「小規模な開発者がアプリケーションを開発する場合、それがどこで実行されるのか、バックエンドが何なのかを意識する必要はありません。EC2(Amazon Elastic Compute Cloud)インスタンスを起動するだけで完了します」とトリパシ氏は述べた。「今のAIコンピューティングでは、そんなことは不可能です。」
AI分野では、開発者は、どのような種類のネットワークを介して、いくつのGPU(グラフィックス・プロセッシング・ユニット)を相互接続する必要があるかを把握する必要があります。これらのネットワークは、開発者自身が構築に全面的に責任を負うソフトウェア・エコシステムによって管理されます。GPUやネットワークに障害が発生した場合、あるいはそのチェーンのどこかに問題が発生した場合、その解決は開発者の責任となります。
「AIコンピューティングインフラを、汎用クラウドが20年かけて到達したのと同じレベルのシンプルさにまで引き上げたいと考えています。もちろん、AIコンピューティングでも同じメリットが得られない理由はありません」とトリパシ氏は述べた。「AIワークロードを実行するためにデータセンターの専門家になる必要がない、そんなレベルに到達したいと考えています。」
FlexAIは、現在少数のベータ顧客による製品テストを実施中で、今年後半に最初の商用製品をリリースする予定です。これは基本的に、開発者を「仮想異種コンピューティング」に接続するクラウドサービスです。つまり、開発者はワークロードを実行し、AIモデルを複数のアーキテクチャに展開することができ、GPUを時間単位でレンタルするのではなく、使用量に基づいて料金を支払うことになります。
GPUはAI開発において不可欠な歯車であり、例えば大規模言語モデル(LLM)の学習と実行に役立っています。NVIDIAはGPU分野における有力企業の一つであり、OpenAIとChatGPTが巻き起こしたAI革命の最大の恩恵を受けている企業の一つです。OpenAIが2023年3月にChatGPTのAPIをリリースし、開発者がChatGPTの機能を独自のアプリに組み込むことが可能になって以来、NVIDIAの株価は約5,000億ドルから2兆ドル以上に急騰しました。
テクノロジー業界からLLM(法学修士)が次々と輩出され、GPUの需要も急増しています。しかし、GPUの運用コストは高く、小規模なジョブやアドホックなユースケースのためにレンタルするのは必ずしも合理的ではなく、法外な費用がかかることもあります。そのため、AWSは小規模なAIプロジェクト向けに期間限定のレンタルサービスを導入しています。しかし、レンタルはあくまでレンタルであり、FlexAIは根底にある複雑さを抽象化し、顧客が必要に応じてAIコンピューティングを利用できるようにしたいと考えています。
「AIのためのマルチクラウド」
FlexAIの出発点は、ほとんどの開発者が、NVIDIA、AMD、Intel、Graphcore、Cerebrasなど、どのGPUやチップを使用するかにはあまり関心がないという点です。彼らの最大の関心事は、予算の制約内でAIを開発し、アプリケーションを構築できることです。
ここで、FlexAI の「ユニバーサル AI コンピューティング」というコンセプトが登場します。FlexAI は、ユーザーの要件を受け取り、それを特定のジョブに適したアーキテクチャに割り当て、Intel の Gaudi インフラストラクチャ、AMD の ROCm、Nvidia の CUDA など、さまざまなプラットフォーム間で必要なすべての変換を処理します。
「これはつまり、開発者はモデルの構築、トレーニング、そして利用にのみ集中できるということです」とトリパシ氏は述べた。「その背後にあるものはすべて私たちが管理します。障害、復旧、信頼性はすべて私たちが管理し、お客様は使用した分だけ料金をお支払いいただくことになります。」
FlexAI は、さまざまな方法で、クラウドですでに行われていることを AI 向けに加速させようとしています。これは、従量課金モデルを複製する以上のことを意味します。つまり、さまざまな GPU およびチップ インフラストラクチャのさまざまな利点を活用して「マルチクラウド」に移行する機能を意味します。
FlexAIは、顧客の優先順位に応じて、特定のワークロードを振り分けます。AIモデルのトレーニングと微調整に予算が限られている企業は、FlexAIプラットフォーム内でその予算を設定することで、最大限のコンピューティング性能を費用対効果で得ることができます。これは、より安価(ただし低速)なコンピューティングを求めてIntelを利用することを意味する場合もありますが、開発者が小規模な実行で可能な限り高速な出力を必要とする場合は、代わりにNvidiaを利用することも可能になります。
FlexAIは本質的には「需要の集約企業」であり、従来の方法でハードウェア自体をレンタルし、IntelやAMDとの「強力なコネクション」を活用して優遇価格を確保し、それを自社の顧客ベースに分配しています。これは必ずしも主力企業であるNvidiaの思惑を覆すことを意味するわけではありませんが、IntelとAMDがNvidiaの残したGPUの残りをめぐって争っている状況を考えると、FlexAIのような集約企業と協力する大きなインセンティブがあると言えるでしょう。
「もしこれを顧客のために機能させ、数十から数百の顧客を彼らのインフラに取り込むことができれば、彼ら(インテルとAMD)は非常に満足するだろう」とトリパシ氏は語った。
これは、資金力に恵まれ、Nvidia ハードウェアに重点的に取り組んでいる CoreWeave や Lambda Labs など、この分野の同様の GPU クラウド プレーヤーとは対照的です。
「AIコンピューティングを、現在の汎用クラウドコンピューティングと同じレベルにまで引き上げたいと考えています」とトリパシ氏は指摘する。「AIではマルチクラウドは実現できません。特定のハードウェア、GPUの数、インフラストラクチャ、接続性を選択し、それを自ら維持管理しなければなりません。現状では、AIコンピューティングを実際に実現するには、それが唯一の方法なのです。」
具体的な打ち上げパートナーは誰かと尋ねられると、トリパシ氏は、一部のパートナーから「正式な約束」が得られていないため、全員の名前を挙げることはできないと述べた。
「Intelは強力なパートナーであり、間違いなくインフラを提供してくれています。AMDもインフラを提供してくれるパートナーです」と彼は述べた。「しかし、NVIDIAや他の数社のシリコン企業との第2層のパートナーシップも進行中です。まだ詳細を発表できる段階ではありませんが、いずれも既に提携を進めており、現在MOU(了解覚書)の締結作業が進められています。」
イーロン効果
トリパティ氏は世界最大級のテクノロジー企業で働いた経験があり、今後の課題に対処する十分な能力を備えています。
「GPUについては十分理解しています。以前はGPUを開発していたからです」と、トリパシ氏はNvidiaでの7年間の勤務について語った。2007年、初代iPhoneの発売時にAppleに移籍した。「Appleでは、顧客の真の課題解決に注力するようになりました。Appleが携帯電話向け初のSoC(システム・オン・チップ)の開発を始めた頃も、私はAppleにいました。」
トリパティ氏はまた、2016年から2018年までの2年間、ハードウェアエンジニアリングのリーダーとしてテスラに勤務し、上司2人が突然退社したため、最後の6か月間はイーロン・マスク氏の直属の下で働くことになった。
「テスラで学び、そして自分のスタートアップにも持ち込んでいるのは、科学と物理学以外に制約はないということです」と彼は語った。「今日のやり方は、あるべき姿でも、必要な姿でもありません。第一原理から何が正しいのかを追求し、そのためにはあらゆるブラックボックスを排除する必要があるのです。」
トリパティ氏はテスラが自社製チップの製造に移行する過程に関わっており、この動きはその後、GMやヒュンダイなど他の自動車メーカーも追随した。
「テスラで最初に取り組んだことの一つは、車にいくつのマイクロコントローラーが搭載されているかを調べることでした。そのためには、金属製のシールドとケースで囲まれた巨大な黒い箱を文字通り整理し、そこに搭載されている非常に小さなマイクロコントローラーを見つけ出さなければなりませんでした」とトリパシ氏は語った。「そして、それをテーブルに置いて並べ、『イーロン、車には50個のマイクロコントローラーが搭載されている。しかも、大きな金属製のケースでシールドされ保護されているため、マージンが1000倍になることもあるんだ』と言ったんです。すると彼は『自分たちで作ろう』と言い、私たちはそれを実現したのです」
GPUを担保として
将来を見据え、FlexAIはデータセンターを含む独自のインフラ構築も目指しています。トリパシ氏によると、これは負債による資金調達で賄われる予定で、CoreWeaveやLambda Labsといった同業他社が、株式を譲渡するのではなく、NVIDIAのチップを担保に融資を受けている最近の傾向を踏まえたものとなります。
「銀行家たちは今やGPUを担保として使う方法を知っています」とトリパシ氏は述べた。「なぜ株式を手放す必要があるのでしょうか? 真のコンピューティングプロバイダーになるまでは、データセンター建設に必要な数億ドルもの資金を調達するには、企業価値だけでは不十分です。株式だけを担保にすれば、資金が尽きれば消えてしまいます。しかし、GPUを担保にすれば、銀行はGPUを差し押さえ、他のデータセンターに投資することができます。」