G-Core Labsのエッジクラウドディレクター、Seva Vayner氏
ますます多くの企業が、自社のプロセスやソリューションに人工知能(AI)と機械学習(ML)を導入しようとしています。機械学習モデルは、あらゆる業種の企業に影響を与え、新たな知見の獲得、運用コストの削減、顧客体験の向上など、様々なメリットをもたらします。しかし、AIの導入は複雑になる場合があり、この技術を活用したい企業は、そのメリットを実感するまでに多くのハードルを乗り越えなければなりません。最初のハードルは適切なITインフラの整備です。AIは処理能力やストレージなど、様々なリソースを必要とします。中小企業にとって、AIをサポートするための技術スタックを整備することは、乗り越えられない障壁のように思えるかもしれません。
そのため、クラウドおよびエッジソリューションの国際プロバイダーであるG-Core Labsは、自社のクラウドプラットフォーム内に、新たなAIインフラストラクチャ・アズ・ア・サービス(IaaS)ソリューションを導入しました。AIクラウドは、あらゆる規模の企業のAI導入プロセスをあらゆる段階でサポートするように設計されています。このクラウドインフラストラクチャには、強力なベアメタルサーバー、AI専用に設計されたGraphcoreのインテリジェンス・プロセッシング・ユニット(IPU)、そして金融、フィンテック、eコマース、ゲーム開発といった分野の開発者やデータサイエンティストがAIアプリケーションをより容易に開発できるよう支援する、数多くの統合ツールとリソースが含まれています。
この AI サービスとしてのインフラストラクチャが AI と ML の推論およびトレーニングの未来である理由を詳しく見てみましょう。
データの準備と保存
人工知能、特に機械学習アルゴリズムは大量のデータを必要とします。AIアプリケーション開発チームにとって最初のハードルの一つは、これらのデータセットを費用対効果の高い方法で収集、準備、そして保存することです。紙の台帳からデータ収集を始め、最終的に膨大な量の.csvファイルを作成してしまう企業は、小規模ながらも機械学習に適したデータセットを持つチームよりも、データ準備に非常に苦労するでしょう。
一部の組織では、数十年にわたってデータ記録を蓄積してきました。これをオンサイトサーバーに保存すると、AIアプリケーションへの組み込みやクラウドへの移行に多大なリソースが必要になります。コンプライアンス上の課題も発生する可能性があります。これは、G-Core Labs AIクラウドインフラストラクチャのメリットの1つです。チームは、手作業を一切必要とせずに、機械学習用のデータを正しく準備し、すぐに開始できます。クラウドストレージにデータを保存するだけで、AIプロジェクトはモデリングに必要なデータに自動的にアクセスできるようになります。さらに、G-Coreインフラストラクチャは、AIモデルの保存から構築、ラベル付け、トレーニングまで、プロセスのすべてのステップを考慮して構築されています。
ノートブックを構築して ML ライフサイクルを加速する
G-Core Labs AI Cloudは、単にデータを保存するツールやインフラストラクチャに加え、モデルの作成とトレーニングを支援するツールがプラットフォームに組み込まれています。AI Cloudでは、クラウド内でJupiterノートブックを簡単に作成・実行できるため、チームはAIソリューションを容易に構築できます。複数の開発者によるMLコードの変更を単一のプロジェクトに統合する作業も、簡単に自動化できます。
さらに、このプラットフォームには、MLコードの開発とMLモデルのトレーニングにすぐに使えるツール、テンプレート、モデルが付属しています。プラットフォーム内のマーケットプレイスは、お客様のAIプロジェクトのニーズと要件を満たすあらゆるツールが揃ったワンストップショップです。これらのツールはデータサイエンスチームをサポートし、不要な手作業によるコーディングにかかるリソースを最初から節約できます。構築済みのモデルを選択してカスタマイズするだけで、すぐに使えるインフラストラクチャと組み合わせることで、チームは優位に立ち、あらゆるAIアプリケーションの展開やテストを加速できます。
強力なGraphcoreハードウェアでバックアップされたMLモデルを構築
企業やイノベーターが機械学習を活用したいと考えている、次世代の高精度コンピュータービジョン、自然言語処理、グラフ機械学習といった要求の厳しいタスクには、より迅速な結果提供を可能にする強力なプラットフォームが必要です。CPUやGPUは、こうしたタスクにおいて必ずしも最適な選択肢とは限らず、競争優位性を失ってしまう可能性があります。そのため、G-Core Labsは、AI向けにゼロから設計されたGraphcoreの画期的なインテリジェンス・プロセッシング・ユニット(IPU)システムを採用しています。
いくつかのベンチマークを見てみましょう:
- Graphcore IPUは、MLPerfアプリケーションだけでなく、EfficientNet、Vision Transformer(ViT)、Dynamic Temporal Graph Networks、Generative Pre-trained Transformer(GPT)など、自然言語処理、高精度コンピュータービジョン、グラフMLといった様々なモデルでテストされました。ベンチマーク結果は、大規模なML導入の鍵となる優れたスケーリング性能を示しており、ハードウェアとソフトウェアの設計を実証しています。
- 絶対的なパフォーマンスも印象的で、 Bow Pod16 で EfficientNet-B4 をトレーニングするのに 14 時間未満しかかかりませんでしたが、最新の GPU テクノロジーでは 70.5 時間かかりました。
- ソーシャルネットワーク、金融取引、レコメンデーションシステムのアプリケーションに適した動的時間グラフネットワークは、GPUと比較して10倍のパフォーマンスを実現します。

このハードウェアは非常に強力で、世界有数のスーパーコンピューティング施設であるハートリーセンターにおける核融合エネルギー研究の加速に活用されています。同研究センターは、高性能コンピューティング(HPC)、データ分析、AIを通じて英国の産業を変革するという使命の一環として、GraphcoreのIPUを使用してクリーンかつ商業的に実現可能な核融合エネルギーを実現しています。
Graphcore IPUは、AI/MLタスクにおいて非常に強力なプロセッサであることが実証されています。つまり、このハードウェアを介して実行されるAIアプリケーションは、他のアーキテクチャよりも高速かつコスト効率の高いタスクを実行できます。G -Core AI Cloudは、これらのIPUに簡単にアクセスできるようにします。
ユーザーに近い推論
MLモデルを構築したら、次は推論について検討します。推論とは、モデルが実際にデータを処理し、学習済みの目的を達成する段階です。顔認識や製造現場における不良品検出といったリアルタイムアプリケーションでは、結果を可能な限り迅速に生成して返す必要があります。そこでエッジAI推論が役立ちます。
クラウドで推論を実行することもできますが、データのやり取りではなく、分析対象のデータが存在するデバイスから推論を実行する方が最適でしょう。これにより、結果生成時間が大幅に短縮されます。そのため、顔認識などのリアルタイムユースケースでは、エッジでの推論は不可欠です。
繰り返しになりますが、 G-Core Labsのクラウドインフラストラクチャは、まさにこの点で企業を支援できます。G-Coreは世界中にローカルクラウドのPoint of Presence(POP)を保有しているため、データソースに近い場所で推論を実行できます。また、ローカルPOPを利用することで、ローカルデータコンプライアンスや法規制の要件を満たすこともはるかに容易になります。
結論
デジタルビジネスがインダストリー4.0へと近づくにつれ、AI/MLやクラウドコンピューティングといったテクノロジーは、企業がコスト削減、データ活用、そしてこれまで以上に大きな価値を引き出す上で極めて重要になります。G-Core Labs Cloudは、世界をリードするAIインフラストラクチャによって、企業がこれら2つの基盤をカバーできるよう支援します。
これにより、開発者とデータチームは、必要なすべてのインフラストラクチャが安全かつ最高品質であることを保証することでプロジェクトを加速させ、プロセスのあらゆる段階でサポートツールを活用できるようになります。G-Core LabsのAIクラウドは、AIとML技術を民主化し、小規模なスタートアップ企業であってもテクノロジー大手のITリソースにアクセスできるようにします。詳細はこちらをご覧ください。