大規模言語モデル (LLM) を企業に提供し、機密データに対してそれらのモデルを微調整するためのソフトウェアを提供する DynamoFL は本日、Canapi Ventures と Nexus Venture Partners が共同でリードしたシリーズ A 資金調達ラウンドで 1,510 万ドルを調達したことを発表しました。
この資金調達には、Formus CapitalとSoma Capitalも参加しており、DynamoFLの調達総額は1,930万ドルとなりました。共同創業者兼CEOのVaikkunth Mugunthan氏は、調達資金はDynamoFLの製品ラインナップの拡充とプライバシー研究者チームの強化に充てられると述べています。
「総合的に判断すると、DynamoFLの製品群により、企業はパフォーマンスを犠牲にすることなく、プライベートかつ準拠したLLMソリューションを開発できるようになります」とMugunthan氏はTechCrunchとのメールインタビューで語った。
サンフランシスコに拠点を置くDynamoFLは、MIT電気工学・コンピュータサイエンス学科の卒業生であるムグンタン氏とクリスチャン・ラウ氏によって2021年に設立されました。ムグンタン氏によると、AIモデルにおける「重大な」データセキュリティの脆弱性に対処したいという共通の願望が、同社設立の動機となったとのことです。
「生成AIは、LLMが機密性の高いトレーニングデータを『記憶』し、悪意のある攻撃者に漏洩させる能力など、新たなリスクを浮き彫りにしました」とムグンタン氏は述べています。「企業はこれらのリスクに対処するための十分な準備が整っていませんでした。LLMの脆弱性に適切に対処するには、高度に専門化されたプライバシー機械学習研究者のチームを雇用し、新たなデータセキュリティの脆弱性に対してLLMを継続的にテストするための合理化されたインフラストラクチャを構築する必要があるからです。」
企業は、LLMを自社の目的に導入するにあたり、主にコンプライアンス関連の課題に直面しています。企業は、機密データがユーザーデータでモデルをトレーニングした開発者の手に渡ることを懸念しており、ここ数ヶ月でApple、Walmart、Verizonといった大企業が、OpenAIのChatGPTなどのツールを従業員が使用することを禁止しています。
ガートナーは最近のレポートで、組織が「責任ある」LLMリスクを評価するために評価する必要がある6つの法的およびコンプライアンスリスクを特定しました。これには、LLMが質問に不正確に回答する可能性(幻覚と呼ばれる現象)、データのプライバシーと機密性、モデルのバイアス(例えば、モデルが特定の性別を特定の職業とステレオタイプ的に関連付ける場合など)が含まれます。レポートでは、これらの要件は州や国によって異なる場合があり、事態を複雑にしていると指摘しています。例えばカリフォルニア州では、顧客がボットと通信している際に組織がそれを開示することが義務付けられています。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日

顧客の仮想プライベートクラウドまたはオンプレミスに導入されるDynamoFLは、LLMが機密データを記憶しているか、漏洩する可能性があるかといったLLMデータのセキュリティリスクを検出し、記録するLLM侵入テストツールなど、様々な方法でこれらの問題を解決しようとします。いくつかの研究によると、LLMはトレーニングやプロンプトの設定方法によっては個人情報を漏洩する可能性があることが示されています。これは、専有データを扱う大企業にとって明らかに禁忌です。
さらに、DynamoFLは、モデルデータの漏洩リスクとセキュリティ脆弱性を軽減するための技術を組み込んだLLM開発プラットフォームを提供します。このプラットフォームを使用することで、開発者はモデルに様々な最適化を統合し、モバイルデバイスやエッジサーバーなどのハードウェアに制約のある環境での実行を可能にします。
はっきり言って、これらの機能は特にユニークなものではありません。少なくとも表面的にはそうではありません。OctoML、Seldon、Deciといったスタートアップ企業は、AIモデルを最適化し、様々なハードウェア上でより効率的に動作させるためのツールを提供しています。一方、LlamaIndexやContextual AIといった企業は、プライバシーとコンプライアンスに重点を置き、プライバシーを保護しながらファーストパーティデータでLLMをトレーニングする方法を提供しています。
では、DynamoFLの差別化要因は何でしょうか?Mugunthan氏は、そのソリューションの「徹底性」にあると主張します。これには、法律専門家と協力し、DynamoFLを使用して米国、欧州、アジアのプライバシー法に準拠したLLMを開発する方法を策定することも含まれます。
このアプローチは、特に金融、エレクトロニクス、保険、自動車分野のフォーチュン 500 企業の顧客を数多く獲得しました。
「LLMサービスに送信されるクエリから個人識別情報を削除する製品は現在存在しますが、金融サービスや保険などの分野では、削除された個人識別情報が高度な悪意のある攻撃によって再識別されることが一般的であるため、厳格な規制要件を満たすことができません」と彼は述べています。「DynamoFLは、AIプライバシーの脆弱性に関するチームの専門知識を活用し、LLMデータセキュリティの規制要件を満たしたい企業向けに、最も包括的なソリューションを構築しました。」
しかし、Mugunthan 氏は、DynamoFL の最近の資金調達によって、今後ツールとソリューションのセットが拡張されることを示唆しました。
「規制当局の要求に応えることは、特に金融サービスや保険といった分野において、IT部門の経営幹部レベルの管理者にとって極めて重要な責任です」と彼は述べています。「規制違反は、機密情報の漏洩などにより顧客の信頼に回復不能なダメージを与え、多額の罰金が科せられる可能性があり、企業の業務に大きな混乱をもたらす可能性があります。DynamoFLのプライバシー評価スイートは、データ抽出の脆弱性をすぐにテストできる機能と、セキュリティとコンプライアンスの要件を満たすために必要な自動ドキュメント作成機能を提供します。」
現在約 17 名のチームを雇用している DynamoFL は、年末までに 35 名のスタッフを抱えることを予定しています。
カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。
バイオを見る