(前回からのつづき)ほぼすべての主要なAndroidのスマートフォンメーカーは、2020年を通してより高画素でより高倍率なズーム機能を持つカメラを導入した。Samsungはすでに複数のモデルで108メガピクセルのカメラを採用しており、200メガピクセルのセンサーも間もなく登場する。一方でAppleはその流れに逆らうように、iPhone 12 Proのカメラを12メガピクセルの解像度に保ち、ズーム倍率も0.5倍から2倍を維持した。
その結果、暗い場所以外では、新しいモデルで撮影した画像とiPhone 11 Proで撮影した画像の違いはほとんど分からないだろう。iPhone 12 Proはレンズとソフトウェアの改善により以前よりも光を集めて処理することに優れているため、夜間や薄暗い室内で取った写真は、真っ暗闇ではなく夕暮れ時に撮影されたかのように非常にきれいでカラフルな仕上がりになる。
プロのクリエイター、少なくともハイエンドのカメラのみにこだわらず、iPhoneでも撮影をする人たち向けに、AppleはDolby Vision HDR録画とApple ProRAW機能も追加した。これにより、カメラに記録されるビジュアルデータの量は最終的に向上する。また、サポートされているディスプレイで最適な色と明るさを実現するため、後から画像を編集することも可能だ。
一部のビデオグラファーはこれらの機能を使い始めるだろうが、機能を完全にサポートしているのはDolby Vision Profiles 8.4以降を搭載したテレビのみで、ProRAW用のツールは利用できるようになって間もないため、この2つの機能の影響を多くのユーザーが受けるようになるまでには、まだ当分時間がかかるだろう。
iPhone 12 Proには背面にLidar 3Dスキャナーも追加されている。これは、今年初めにiPad Pro 2020で導入された機能だ。リアカメラと並んで配置されているiPhoneのLidarスキャナのサイズはiPadよりも小さいが、機能は概ね同じである。目に見えないレーザーを使用して、指定したものすべての動的な3Dマップを作成する。今のところ、これらの3Dマップマップを使用することで、リアカメラを使ってリアルタイムにARを描画する速度や精度、暗い場所での優れたオートフォーカス機能を向上させることができる。
Lidarは競合他社に対するiPhone 12Proの最大の利点になる可能性がある。今のところ、Appleは自社アプリのほとんどでこの機能をサポートしていないが、Polycamと呼ばれるサードパーティのアプリは、Lidarとカメラを組み合わせて、物体や空間を3Dスキャンする方法を公開している。私は今週末にPolycamを使用し、スキャンと処理の時間合わせてトータル3分未満で、デジタル空間に部屋全体をインポートしてドラッグやピンチアウトのジェスチャーで3Dデータを回転したりズームしたりしてみた。
スマートフォンでほぼ瞬時に3Dスキャンを行うという目新しさにもかかわらず、私がPolycamで作成した3Dモデルを見た人たちは口を揃えて「素晴らしいですが、この3Dモデルを使って何ができるんですか?」と言う。確かに、新しいハードウェアが追加されるのは素晴らしいことだが、ほとんどの人は実用的なソフトウェアとその使用例を望んでいる。Apple、今こそ出番だ。(次につづく)
【via VentureBeat】 @VentureBeat
【原文】
BRIDGEでは会員制度「BRIDGE Members」を運営しています。会員向けコミュニティ「BRIDGE Tokyo」ではテックニュースやトレンド情報のまとめ、Discord、イベントなどを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。登録は無料です。無料メンバー登録