EOS R3の視線入力AFレビュー
最後に、アイコントロールAFはすべてに適しているわけではありません。ファインダーを覗いて風景や建築物を丁寧に撮影していると、思い通りの構図にするために目があちこちに飛び回り、極端な端や角を見てしまうことがよくあります。視線制御AFは当然不要ですし、かえって邪魔になってしまいます。
ありがたいことに、アイコントロールが必要ない状況に陥った場合、あるいはさらに悪いことにアイコントロールが誤動作し始めた場合(私は日中に立ち止まって2、3のキャリブレーションをしなければなりませんでした)、ボタンを押すだけでこの機能を無効にすることができ、R3は後部コントロールホイールの真ん中にある「セット」ボタンにデフォルトで移行します。
キヤノンの言う通り、EOS R3はアイコントロールAFだけではなく、このシステムを有効にしないユーザーもいるでしょう。しかし、DPReviewの私たちはこのシステムを試してみて、とても気に入りました。シンプルでありながら、様々な写真撮影に対応できる強力な方法であり、この技術がより多くのコンシューマーレベルの製品に浸透していくことを待ち望んでいます。家族の写真を撮りたいと思っているビギナーから、プロのスポーツカメラマンまで、誰もが恩恵を受けることができる機能の一つだと思います。
今回の体験を経て、私は率直に言って、もう二度とAFジョイスティックを使いたくありません。目を動かすだけでカメラの重要な部分をコントロールできるようになった後では、タッチスクリーンを使っても不便に感じてしまいます。アイコントロールAFがEOS R3の購入を決定づける唯一の「キラー機能」になるかどうかはわかりませんが、いくつかのタイプの写真撮影には絶対的な効果があり、使えばすぐに自然に使えるようになるでしょう。
DPREVIEWがEOS R3の視線入力AFのレビュー記事を掲載しています。かなり詳細で長文にわたって記載されていますので、全文は記事元リンクからご覧ください。上記は、とても重要だと思った一部分のみを引用しています。
記事によれば、スポーツ(サッカー)撮影中に視線入力AFを利用すると、AFポイントを指定する場所を考えたり、追尾を開始するための中心を維持する必要がなく、好みの構図を維持して撮影することが可能だったとしています。
このことからカメラが瞳を認識して、その場所にAFポイントをあらかじめ設定することができ、そこから追尾を開始するので、カメラを動かす必要がないとしています。恐らく中央にAFポイントを設定しておいて、カメラを左右に動かしていったん被写体をフレーム中央に捉え、被写体認識させてから、自分の撮影したい構図にカメラを動かして撮影するというようなことをしているのだと思います。
それが視線入力AFを利用すると、撮影したい構図を維持したまま、視線入力AFでAFポイントを稼働させ、被写体を認識するエリアを指定することができるので、撮影が楽になるということを言いたいのだと思います。
人によってはAFポイントを中央1点にして、撮影したい被写体をいったん中央で捉え、そこからオートフォーカスでピントを合わせ、フォーカスを固定してからカメラを動かして構図を決めるという撮り方をしている人もいると思います。これと同じような方法で被写体をカメラに認識させてから撮影するような事前準備のようなものが必要なくなるのでしょうね。ちなみに中央1点で被写体にピントを合わせてから構図を決めるためにカメラを動かすと、ピントが合う部分はカメラから円弧の部分になりますので、どうしても被写体のピントがあまくなります。
キャリブレーションが重要
そして、記事によれば、EOS R3では6つの視線入力AFのためのキャリブレーション情報を記録できるスロットのようなものがあるようです。それぞれ異なる条件でも正確に視線入力AFが可能になるように、様々なシチュエーションで異なるキャリブレーションをして、それをスロットに保存しておく必要があるようですね。このキャリブレーションは撮影状況によって異なってくると思いますので、撮影したい状況にあわせてその都度行う必要があるかもしれないことが示唆されています。
ですが、それでも視線入力AFは従来のジョイスティックを利用するよりもはるかに便利にAFポイントを指定できる能力があるようです。いまはまだ技術的に出始めの技術なので、足りない部分があるのかもしれませんが、視線の検出精度が高まったり、余計な視線の移動をしたときには、それをAFポイントの移動に反映させないようにする技術などが完成されれば、さらに便利なものにできる可能性があるのかなと思います。
瞳認識AFはソニーのイノベーションがすごいなと思いましたが、キヤノンの今回の視線入力AFもかなりのイノベーティブな機能だと思います。これが理由でキヤノン製品を選択する人も多いかもしれません。そしていつかより廉価な製品にこの機能が降りてくる可能性があるのでしょうか?ボディ内手振れ補正レベルで普及機にも採用されると面白くなると思いますね。
[template id=”4241″]
コメント
コメント一覧 (3件)
別の記事の中でもコメントしましたが、タッチ&トライで試した結果、ミリ単位で視線を動かすことはとても疲労感を感じました。私は遠近両用の世代でMFも厳しくなっているので若い方なら問題ないのかもしれません。
例えば、2台のバイクがこちらに向かって来る、またはサッカー選手が3人くらい画面の中にいてその一人に視線を大まかに移して構図を変えることなくAF対象を変更することは自分でも可能だと思いましたが、ステージ上で櫻坂46の特定の人に視線をミリ単位で動かして合わすことは私には無理だと感じました。ましてや46人が動いている状態では。これまでのようにAF枠を画面中心等に置いてカメラを動かしてホールドするやり方の方が圧倒的に簡単に感じました。
上にあるように、確かにジョイスティック等を使って合わすのは櫻坂46のケースでは難しいですが、ターゲット追尾でカメラを動かしてホールドして構図を戻すやり方なら一瞬のタイムラグはあっても自分には楽です。動画なら構図変わってダメですが。
ただし、慣れや熟練によってはミリ単位の移動も可能になるのかもしれません。
こればっかりは各々が実際に使ってみないとわかりませんね。
それに何回もキャリブレーションしたり癖を掴んだり時間をかけて使ってみないと使いやすいかどうかの結論は中々出せないと思います。
しかしこういう技術がそのメイカーならではの強みになればそのメイカーのカメラを選ぶ強い理由になるので、市場縮小の中生き残っていくには大事な技術だと思いますね。
これは良さそう。
被写体が画面の何処にあっても視線を移動させるだけでAFポイントが
動くので使いやすそうです。
人物ならば瞳認識と連携させれば自動追尾してくれるでしょう。
他の被写体もしかり。
被写体を中央に置き認識させる必要はありません。
カスタムゾーンで認識させれば良いのです。
これは医療分野のアイトラッキング技術の応用と思われるのでメディカル部門が
あると強いですね。
ソニーもアイトラッキング技術は持っているはずなのでいずれ搭載して来ると
思います。