在今日召开的 WWDC21 开发者大会上,苹果推出了基于新一代 AR 引擎 RealityKit 2 的 API Object Capture。
Object Capture 主要基于 Swift 编程语言构建,并通过 RealityKit 2 在 macOS Monterey 上运行。
从发布会上的视频演示来看,Object Capture 可以将多张照片拼接在一起,针对照片素材快速创建 3D 模型。具体操作为,用户使用手中的 iPhone、iPad 或其他相机拍摄照片,将照片导入 Reality Kit 2 生成 3D 模型。在模型生成后,用户可以使用 AR Quick Look 进行 3D 模型预览,以保持所创建模型的准确性。
通过 Object Capture 生成的 3D 素材还可在 Reality Composer 或第三方平台(如 Unity MARS 和 Maxon Cinema 4D )创建具体的 AR 体验。
据悉,该项技术目前已经运用到电商平台 Etsy 和 Wayfair 中,比如 Wayfair 可以支持用户在手机 APP 端使用 ARKit 来对商品进行 AR 预览。
除了 Object Capture 之外,苹果还通过 RealityKit 2 添加了一组新的 API,以实现更逼真、更复杂的 AR 体验,具有更好的视觉、音频和动画控制,其中也包括自定义渲染通道和动态着色器。
Object Capture API 的推出,可以让拥有 Mac 或 Macbook 的用户,在没有第三方软硬件的情况下,快速创建 3D 模型,进而促进 AR 内容的快速增长。
编辑:达达 / 深圳湾
,