
視線追跡は長らくコンピューティングの聖杯の一つでした。アクセシビリティへの配慮、新しいフォームファクターの開拓、あるいは単にデバイスとのインタラクションに斬新な工夫を加えることなど、数十年にわたるコンシューマーエレクトロニクスには、視線を使って新しい入力方法を解き放とうとする試みが溢れています。
カーネギーメロン大学が開発した、ちっぽけな名前の「EyeMU」(「ICU」ってちょっと強引な感じがするけど)の背後にある考え方はシンプルだ。最近のスマートフォンは大きい。最新のフラッグシップ機を片手で操作しようとしたことがある人なら、その使いにくさをご存知だろう。運が良ければ、もう片方の手でコーヒーを飲みながら、親指でアイコンをタップできるかもしれない。
これまでの試みのほとんどは失敗に終わりましたが、現在のスマートフォンには、この機能を自然な形で実現するのに役立つ様々な技術が搭載されています。数年前に視線追跡機能付きのテレビを試した際に、Magic Eyeのポスターの3D画像を見ようとした時と同じようなフラストレーションを感じたことを覚えています。しかし、高性能な前面カメラのハードウェア、GoogleのFace Mesh、そして適切なアルゴリズムを組み合わせれば、ユーザーの意図に反応し、予測する上で大きな進歩を遂げる可能性があります。
「GoogleやAppleのような大手テクノロジー企業は視線予測でかなり近づいていますが、ただ何かを見つめるだけではそこまでには至りません」と、クリス・ハリソン准教授はリリースで述べています。「このプロジェクトの真の革新性は、視線予測に加え、スマートフォンを左右にフリックするといった第二のモダリティを追加した点にあります。それがこのプロジェクトを強力にしているのです。今にして思えば当たり前のことのように思えますが、これはEyeMUをより直感的にする巧妙なアイデアです。」
ここでのもう一つの鍵は、全てを目だけで行おうとしないことだと思います。より伝統的な入力も必要ですが、動画では、研究者たちが視線とジェスチャーの組み合わせに頼ることで、多くのことを達成している様子が示されています。写真撮影アプリで画像を見ると選択されます。顔に近づけると拡大表示され、スマートフォンを左右に振るとフィルターが適用されます。ここで最も興味深いのは、タッチ入力や音声入力を補完する手段として、既存のハードウェアでどれだけのことができるかということです。
トピック
ブライアン・ヒーターは、2025年初頭までTechCrunchのハードウェア編集者を務めていました。Engadget、PCMag、Laptop、そして編集長を務めたTech Timesなど、数々の大手テクノロジー系メディアで活躍してきました。Spin、Wired、Playboy、Entertainment Weekly、The Onion、Boing Boing、Publishers Weekly、The Daily Beastなど、様々なメディアに寄稿しています。Boing Boingのインタビューポッドキャスト「RiYL」のホストを務め、NPRのレギュラー寄稿者でもあります。クイーンズのアパートでは、ジュニパーという名のウサギと暮らしています。
バイオを見る