Appleは、新しいハードウェアとソフトウェアの投入により、製品全体で拡張現実(AR)の活用を推進し続けています。昨年は、iPad ProとiPhone 12 ProシリーズにLiDARセンサーを搭載しました。今年は、開発者がAR体験のビジュアル、アニメーション、オーディオをより細かく制御できるようにするRealityKit 2をリリースします。
新しいRealityKit 2フレームワークで最も興味深い点は、Object Capture APIです。このアップデートにより、AppleはiPhoneユーザーでもmacOSのObject Capture APIを利用して3Dモデルを作成できるようにしています。

iPhoneメーカーは、3Dモデルの作成が難しいという事実を強調しました。これは時間のかかる作業であり、コストもかかるプロセスです。iPhoneユーザーが3Dモデルを作成できるようにすることで、このプロセスは簡単かつ効率的になります。新機能により、iPhoneまたはiPadユーザーはMacを使ってわずか数分で画像を3Dモデルに変換できるようになります。
Appleによると、新しいオブジェクトキャプチャAPIはmacOS Monterey(そしておそらく将来のOSバージョンでも)で動作するとのことです。同社はさらに、3Dモデルの作成にはわずか数行のコードしかかからないと付け加えています。このプロセスを開始するには、開発者はRealityKitで新しいフォトグラメトリセッションを開始する必要があります。
開発者は、iPhoneまたはiPadで撮影した画像を含むフォルダをセッションの宛先に指定する必要があります。画像を追加したら、次のステップは最終的な3Dモデルを生成する処理機能を開始することです。もちろん、開発者は好みに応じて、様々な詳細レベルを選択できます。
Apple によれば、Wayfair や Etsy などの開発者はすでに Object Capture API を使用して 3D モデルを自社のサービスに導入し始めているという。