EOS R3の瞳コントロールAFシステムの特許
これがNorthlightのKeithによって明らかにされた、興味ある特許だ。
最初の特許は、カメラがどのようにキャリブレーションを行うかが論じされている。特許内容を読んで要約すると、過去のフィルム時代のEOS-3、Elan、その他のキヤノンのフィルムカメラにあった当時の瞳コントロールAFのキャリブレーションの仕方に似ており、どこに使用者の瞳が動く被写体を追い続けるのか、カメラは使用者の虹彩の位置を記録する。様々なスクリーン上の場所で、これを繰り返すことで、キャリブレーションが完了する。
キヤノンの瞳コントロールAFについての特許が明らかになったようです。記事では、瞳コントロールAFのキャリブレーションの仕組みについての特許が明らかになっています。
記事の文章ではわかりにくいので、かいつまんで説明すると、恐らくEVF上に何かしらのマークが表示され、それを実際に目で追うという作業をするようです。それをEVFの様々な場所にマークを表示させる→それを見るという作業を繰り返すことで、瞳コントロールAFのキャリブレーションが完了し、実際に正確に瞳コントロールAFが動作するというような感じで設定をしていくようですね。
スマホなどでも指紋認証方式では、指を当てる角度を変えて何回か認識させてみたり、顔認証方式では、顔をなんどもぐるぐると動かしてスマホに読み込ませるようなことをしていますが、それと同じようなことをカメラでも行う必要があるということなのだと思います。
精度次第では使い勝手がかなり向上する可能性も
最近のカメラは、フォーカスポイントが非常に多くなり、特定の場所にピンポイントにAFポイントを設定することが可能になっています。ですが、そのぶんAFポイントの操作が難しくなってしまい、それを解決する手段としてジョイスティックのようなコントロールを設定したり、タッチパッドのようなものを設定したりして、問題を解決しようとしています。
ですが、撮影しているときに右手の親指でAFポイントを設定するのは、特に動く被写体に向けてカメラを動かしながら撮影する場合などでは難しい場合があります。しかし、実際にEVFをのぞいている瞳を検知して、AFポイントやその他設定に関する操作が可能になると、AFポイントを合わせる手間がほとんどなくなる可能性があります。
問題は精度で、たぶん被写体の目を追い続けるというレベルの精度の操作は不可能だと思います。しかし、例えばエリアを縦横20エリアぐらいに分割し、その中からAFエリアをおおまかに設定できるというだけでも、特定の被写体を追い続けるのに非常に便利に利用できる可能性があるのかな?と思いますね。
ただ、瞳で実際に被写体を追い続けるのは難しいですよね。例えばモードを変えるためにEVFの下に表示されているモード表示を確認したり、残り枚数や電池の残バッテリー容量など、確認することは多くあります。また、例えば、右目でEVFを見ていても、一時的に被写体を追うために左目で被写体をみるといったこともすることがあります。そうすると右目も動いてしまうので、それをカメラが追ってAFポイントを変更されてしまうかもしれません。
ずっと目の動きを追い続けると、本来はフォーカスポイントを動かしたくないときに動いてしまう可能性があるので、何かしらの制限や仕組みというようなものがあると思うのですが、どのような条件で瞳コントロールAFが動作するのか、かなり興味がありますね。たぶん親指AFを押しているときだけ動作するというような感じになるのでしょうか?
[template id=”4241″]
コメント
コメント一覧 (1件)
例えば被写体を視線入力でロックしあとは自動追尾させる
だけで良いと思いますが。