
AppleがiPhone 13にシネマティックモードをいかに構築したか【レポート】
- Lamiyi
- 0
- rhahw
AppleはTechCrunchとの最近のインタビューで、iPhone 13のシネマティックモードの開発経緯を公開しました。シネマティックモードでは、浅い被写界深度で撮影し、被写体間のフォーカストランジションを自動的に追加します。
同サイトは、ワールドワイド iPhone 製品マーケティング担当副社長 Kaiann Drance 氏と、Apple のヒューマンインターフェースチームのデザイナー Johnnie Manzari 氏に、この主要機能がどのようにして生まれたのかについて話を聞きました。
「高品質な被写界深度を動画に取り入れるのは、ポートレートモードよりもはるかに困難だと分かっていました」とDrance氏は語る。「写真とは異なり、動画は撮影者が手ぶれも含めて動くように設計されているからです。つまり、シネマティックモードを人物、ペット、物体など、あらゆる被写体に機能させるには、さらに高品質な被写界深度データが必要になり、すべてのフレームに追従するためには、その被写界深度データを継続的に取得する必要がありました。こうしたオートフォーカスの変化をリアルタイムでレンダリングするには、膨大な計算負荷がかかります。」
Appleは、フォーカスを合わせることの重要性を理解するために、撮影監督、カメラマン、ファースト・アシスタント・アシスタント(AC)と緊密に協力することから始めたと述べた。
「撮影監督の方々と、なぜ浅い被写界深度を使うのか、そしてそれがストーリーテリングにおいてどのような役割を果たすのかについてお話できたのも、本当に刺激的でした。そして、私たちが得たのは、そしてこれは実に時代を超えた洞察なのですが、視聴者の注意を導く必要があるということです。」
「問題は、今日ではこれが熟練したプロの仕事だということです」とマンザリは指摘する。「普通の人が挑戦することすらありません。あまりにも難しいからです。たった一つのミス、つまり数インチのズレ…これはポートレートモードで学んだことです。耳には合っていても、目に合っていなければ、それは無駄です。」
完全なレポートについては、以下のリンクをクリックしてください。
続きを読む
