昨今、ほぼすべてのテレビ番組や映画の制作でCGが使用されていますが、完全デジタルのキャラクターが登場する番組は、CGを一段上のレベルへと引き上げています。セス・マクファーレン主演の『テッド』もその一つで、彼の制作会社Fuzzy Doorの技術部門は、ViewScreenと呼ばれる撮影現場で使える拡張現実(AR)ツールスイートを開発しました。このツールは、この厄介になりがちなプロセスを、コラボレーションと即興の機会へと変えています。
CGキャラクターやCG環境を扱うのは、俳優にとってもスタッフにとっても大変なことです。カメラの外で誰かがセリフを話している間に、空いている場所マーカーに話しかけたり、棒に刺さったテニスボールを着陸場に着陸するシャトルクラフトに見立てたりすることを想像してみてください。制作全体がホロデッキで行われるまでは、これらのCGアセットは目に見えないままですが、ViewScreenを使えば、少なくとも全員がカメラ内でリアルタイムに操作できます。
「クリエイティブなプロセスが劇的に改善され、必要なショットをはるかに早く撮れるようになりました」とマクファーレン氏はTechCrunchに語った。
CG素材を使った撮影の通常のプロセスは、ほぼ全てカメラがオフになった後に行われます。キャラクターの代わりとなる人物(テニスボールやモーションキャプチャーでリグを組んだパフォーマーなど)を起用してシーンを撮影し、俳優やカメラマンに、どのように展開していくかの指示とフレーミングを与えます。その後、撮影した映像をVFX担当者に送り、ラフカットが返送されます。その後、好みに合わせて調整したり、やり直したりする必要があります。これは反復的で従来型のプロセスであり、即興性はほとんど生まれず、撮影を退屈で複雑なものにしてしまうことがよくあります。
「基本的に、これはVFXスーパーバイザーとして、誰もが触れ合うはずの目に見えないものを見せたいという私のニーズから生まれたものです」と、制作会社Fuzzy Door Techの共同創設者であるブランドン・フェイエット氏は語る。「デジタル要素のあるものを撮影するのは本当に難しいんです。なぜなら、それが存在しないからです。監督もカメラマンもフレーミングに苦労し、照明担当者もデジタル要素に適切な照明を当てることができません。撮影当日、セットで実際にその架空のものを見ることができたらどうなるか想像してみてください。」

「iPhoneで今すぐできるじゃないか。ARKitって聞いたことある?」と思う人もいるかもしれない。しかし、使われている技術は似ている(実際、ViewScreenはiPhoneを使用している)ものの、違いは一方がおもちゃで、もう一方がツールであるという点だ。確かに、ARアプリで仮想キャラクターをセットにドロップすることはできる。しかし、現実のカメラはそれを捉えず、セットのモニターにも映らず、声優はそれと同期せず、VFXクルーはそれを基に最終ショットを制作できない、といった具合だ。重要なのは、デジタルキャラクターをシーンに配置することではなく、現代の制作基準に統合しながらそれを実現することだ。
ViewScreen Studioは、複数のカメラ(ソニーのVeniceシリーズのような実機)をワイヤレスで同期し、中央の3D合成・ポジショニングボックスを介して複数のデータストリームを同時に統合できます。彼らはこれを「プロビゼーション・ビジュアライゼーション(ProVis)」と呼び、プリとポストの中間的な存在です。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
例えば「テッド」のあるショットでは、2台のカメラでクマのワイドショットとクローズショットを撮影し、セットにいる誰かがゲームパッドかiPhoneを使ってクマを操作しています。クマの声とジェスチャーはマクファーレンがリアルタイムで演じ、行動AIがキャラクターの位置と視線を常にターゲットに合わせます。フェイエットは、テッドのアニメーション版を自分の横に配置し、リアルタイムで顔をキャプチャして自由に動かすという、小規模な実演を披露してくれました。

一方、カメラとコンピューターは、クリーンな映像、クリーンな VFX、ライブ合成をビューファインダー内と誰もが見ることができるモニター上に記録し、すべてタイムコードが付けられ、残りの制作プロセスの準備が整っています。
アセットには、ウェイポイントや照明といった新たな指示や属性をリアルタイムで与えることができます。仮想カメラを画面内を移動させることで、様々なショットやシナリオを自然に展開できます。また、カメラのファインダー内にのみパスを表示することで、オペレーターがショットを計画しやすくなります。

もし監督が、タイトルにもなっているぬいぐるみのクマ、テッドをソファから飛び降りて歩き回らせたいと決めたらどうする? あるいは、「オービル」で異星の風景を強調するために、もっとダイナミックなカメラワークを試したいと思ったらどうする? こういった作品で通常使われる、あらかじめ用意されたプロセスでは、到底実現できないことだ。
もちろん、LEDエンクロージャーを使ったバーチャルプロダクションはこれらの問題の一部に対処していますが、それでも同じ問題に直面することになります。ダイナミックな背景や照明によってクリエイティブな自由度は得られますが、巨大なセットの動作上の制約により、シーンの大部分は実際には厳密に固定されなければなりません。
「『ジ・オービル』では、シャトル着陸のセッティングを1回するだけで7テイク、15~20分かかりました。今は2テイクで3分で撮影できます」とフェイエットは語る。「撮影日が短くなっただけでなく、新しいことに挑戦するようになりました。少し遊び心を加えることができるんです。技術的な部分から解放され、クリエイティブな部分に注力できるんです。技術的な部分は必ず存在しますが、クリエイティブな部分に任せることで、ショットの質が格段に向上し、楽しくなります。それに、登場人物たちがよりリアルに感じられるんです。まるで真空を見つめているかのように感じないんです」
これは単なる理論上の話ではない。彼によれば、「テッド」は全編を通して約3000ショットをこの方法で撮影したという。最終的なクオリティのエフェクトは最終的に従来のVFXアーティストが担当するが、彼らは数時間ごとに新しいバリエーションをレンダリングするために起用されるわけではない。そのバリエーションはすぐにゴミ箱行きになるかもしれない。
あなたがこの業界に携わっているなら、Fuzzy Door Tech がお届けする Studio 製品の 4 つのモジュールについて知っておきたいかもしれません。
- トラッカー (iOS): 撮影者のカメラに取り付けられた iPhone からアセットの位置データをストリーミングし、コンポジターに送信するトラッカー。
- Compositor (Windows/macOS): Compositor は、シネマカメラからのビデオ フィードと Tracker の位置データを組み合わせて、VFX/CG 要素をビデオに合成する macOS/WIN アプリです。
- エクスポーター (Windows/macOS): エクスポーターは、コンポジターからフレーム、メタデータ、およびその他のすべてのデータを収集してコンパイルし、1 日の終わりに標準のカメラ ファイルを配信します。
- Motion (iOS): 俳優の表情や体の動きを、撮影現場でiPhoneを使ってデジタルキャラクターにライブストリーミングできます。モーションはマーカーやスーツを一切使用せず、特別な機材は一切不要です。
ViewScreenには、ロケーション撮影で同様の機能を実現するためのモバイルアプリ「Scout」もあります。こちらは一般的なARアプリに近いですが、ロケーション撮影を計画している際に必要なメタデータやツールも備えています。

「『オービル』のスカウティングでは、ViewScreen Scoutを使って、宇宙船やキャラクターがロケ地でどのように見えるかを視覚化しました。VFXスーパーバイザーがショットをテキストで送ってくれて、すぐにフィードバックをくれました。以前は、これに何週間もかかっていたかもしれません」とマクファーレン氏は語ります。
公式アセットを取り込み、スカウト中にアニメーション化することで、時間とコストを大幅に削減できるとフェイエット氏は語る。「監督、カメラマン、(助監督たち)全員が同じものを見ることができ、リアルタイムでインポートして修正できます。『オービル』では、背景にクリーチャーを動かす必要がありましたが、そのアニメーションをスカウトに直接取り込んで、『ちょっと速すぎる。クレーンが必要かも』と判断できました。おかげで、スカウト時に問題が発生した場合、すぐに解決策を見つけることができました。」
Fuzzy Door Techは本日正式にツールの提供を開始しますが、既にいくつかのスタジオやプロダクションと連携しています。「当社の販売方法はすべてカスタムメイドです」と、同社社長のフェイス・セドリン氏は説明します。「番組ごとにニーズが異なるため、スタジオと提携し、脚本を読みます。スタジオによっては、キャラクターよりもセットを重視する場合もありますが、デジタルであれば対応可能です。」