Snapchatの開発者たちが同社のAR(拡張現実)ハードウェア「Spectacles」の実験を開始する中、同社はLens Studioの機能をさらに強化し、よりコネクティビティに優れ、よりリアルで、より未来的なARフィルターの開発に取り組んでいます。Snapchatは毎年恒例のLens Festイベントで、レンズ作成スイートに導入される複数の変更点を発表しました。変更点は、外部メディアやデータの統合から、メガネの未来を見据えたAR中心の機能まで多岐にわたります。
メディア面では、Snapchatはニュースサウンドライブラリを発表します。これにより、クリエイターはSnapchatのライセンス音楽ライブラリからオーディオクリップや数百万曲をレンズに直接追加できるようになります。Snapchatはまた、AccuWeatherの天気情報やFTXの暗号通貨価格など、進化するトレンドを示すAPIライブラリを通じて、リアルタイムデータをレンズに取り込む取り組みも進めています。大きな機能アップデートの一つとして、レンズ内にリンクを埋め込み、別のウェブページへ送信できるようになります。

スナップのかつてはおかしな自撮りフィルターだったが、長らく拡張現実(AR)に注力してきた同社にとって、依然として大きな成長機会となっている。スナップによると、現在250万個以上のレンズが250万人以上のクリエイターによって作成されているという。同社によると、これらのレンズはユーザーによって合計3兆5000億回視聴されているという。同社は社内に「Ghost」と呼ばれる独自の「ARイノベーションラボ」を構築しており、可能性の限界に挑戦するレンズデザイナーへの資金援助を目的として、個々のプロジェクトに最大15万ドルの助成金を支給する予定だ。
同社はレンズをよりスマートにすることを目指しているが、同時にレンズの技術的性能も高めることを目指している。
Snapは、新しいデータタイプの統合に加え、ローエンドスマートフォンのユーザーにも楽しめるレンズを開発するために、基盤となるAR技術にも注力しています。同社のWorld Mesh機能により、ハイエンドスマートフォンのユーザーはARを活用し、レンズ内のデジタルオブジェクトに現実世界のジオメトリデータをより多く統合したレンズを表示できるようになりました。そして今、Snapはこの機能をよりベーシックなスマートフォンにも展開していきます。

同様に、Snap 社は、デジタル オブジェクトが互いによりリアルに反応できるようにするツールも展開しており、レンズ内物理エンジンを導入することで、現実世界とより深く相互作用できるだけでなく、同時ユーザー入力にも適応できる、より動的なレンズを実現しています。
Snapchatは、モバイル向けにさらに洗練されたレンズ作成ツールを開発する取り組みを進めると同時に、開発者が新型AR Spectaclesでハンズフリーグラス体験を設計する際に必要となる可能性のあるツールへの将来的なサポート構築も検討しています。クリエイターたちは数ヶ月前からこの新しいハードウェアを使った体験を作り上げており、Snapchatは彼らの懸念に対処し、新たな機会を創出するために新しいレンズ機能を開発してきました。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日

結局のところ、Snap のメガネはまだ開発段階にあり、同社は AR 機能を統合した消費者向け製品をいつ出荷するかについてのタイムラインを一切発表していないため、理論的にはバックグラウンドで開発を進める時間は十分にある。
Snapがひっそりと開発を進めてきたツールの一つに、Connected Lensesがあります。これはレンズ内で体験を共有し、複数のユーザーがAR Spectaclesを使って同じコンテンツを操作できるようにするものです。開発者版では、AR Spectaclesのバッテリー駆動時間はそれほど長くないため、Snapは、必要な時にSnapを常時起動させることなく利用できるようにするために、工夫を凝らさなければなりませんでした。同社のEnduranceモードは、特定のGPS位置への到達など、特定のトリガーを待つ間、レンズをディスプレイから離れたバックグラウンドで動作させ続けることができます。
ルーカス・マトニーはサンフランシスコを拠点とするTechCrunchのシニア編集者でした。
バイオを見る