Nvidia、AIモデルの本番環境への導入をスムーズにするNIMを発表

Nvidia、AIモデルの本番環境への導入をスムーズにするNIMを発表

NVIDIAは本日、GTCカンファレンスにて、カスタムAIモデルおよび事前学習済みAIモデルの実稼働環境への導入を効率化するために設計された新しいソフトウェアプラットフォーム「NVIDIA NIM」を発表しました。NIMは、NVIDIAが推論およびモデルの最適化に関して行ってきたソフトウェア開発の成果を基盤とし、特定のモデルと最適化された推論エンジンを組み合わせ、コンテナにパッケージ化することで、マイクロサービスとして容易にアクセスできるようにします。

Nvidiaは、通常、開発者が同様のコンテナを出荷するには数週間、場合によっては数ヶ月かかると主張している。しかも、これは同社にAI人材が社内にいたとしてもの話だ。NvidiaはNIMによって、AIロードマップの加速を目指す企業のために、ハードウェアを基盤レイヤーとし、厳選されたマイクロサービスをコアソフトウェアレイヤーとして活用する、AI対応コンテナのエコシステムを構築することを明確に目指している。

NIMは現在、NVIDIA、A121、Adept、Cohere、Getty Images、Shutterstockのモデルに加え、Google、Hugging Face、Meta、Microsoft、Mistral AI、Stability AIのオープンモデルをサポートしています。NVIDIAはすでにAmazon、Google、Microsoftと連携し、これらのNIMマイクロサービスをそれぞれSageMaker、Kubernetes Engine、Azure AIで利用できるように取り組んでいます。また、Deepset、LangChain、LlamaIndexなどのフレームワークにも統合される予定です。

画像クレジット: Nvidia画像クレジット: Nvidia

「NVIDIA GPU はこれらのモデルの推論を実行するのに最適な場所だと私たちは考えています […]。また、NVIDIA NIM は開発者がエンタープライズ アプリケーションに集中できるようにするための最高のソフトウェア パッケージ、最高のランタイムだと考えています。そして、これらのモデルを最も効率的でエンタープライズ グレードの方法で生成する作業を NVIDIA に任せれば、開発者は残りの作業に集中できます」と、NVIDIA のエンタープライズ コンピューティング責任者であるマヌビル ダス氏は、本日の発表に先立つ記者会見で述べました。

推論エンジンに関しては、NvidiaはTriton推論サーバー、TensorRT、TensorRT-LLMを使用します。NIMを通じて利用可能なNvidiaのマイクロサービスには、音声・翻訳モデルのカスタマイズのためのRiva、ルーティング最適化のためのcuOpt、気象・気候シミュレーションのためのEarth-2モデルなどがあります。

同社は、たとえば、Nvidia RAG LLM オペレーターを NIM として利用できるようにすることなど、今後さらに機能を追加していく予定です。これにより、カスタム データを取り込むことができる生成 AI チャットボットの構築がはるかに容易になります。

顧客やパートナーからの発表がなければ、この開発者カンファレンスは成り立ちません。NIMの現在のユーザーには、Box、Cloudera、Cohesity、Datastax、Dropbox
、NetAppなどが名を連ねています。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

「既存のエンタープライズ プラットフォームは、生成型 AI のコパイロットへと変換可能なデータの宝庫です」と、NVIDIA の創業者兼 CEO であるジェンスン フアンは述べています。「パートナー エコシステムと連携して構築されたこれらのコンテナ化された AI マイクロサービスは、あらゆる業界の企業が AI 企業へと進化するための基盤となります。」

フレデリックは2012年から2025年までTechCrunchに在籍していました。また、SiliconFilterを設立し、ReadWriteWeb(現ReadWrite)にも寄稿しています。フレデリックは、エンタープライズ、クラウド、開発者ツール、Google、Microsoft、ガジェット、交通機関など、興味のあるあらゆる分野をカバーしています。

バイオを見る