Google将在网络和移动应用中展示令人惊叹的全新AR功能


自去年初正式推出以来,Google一直在悄悄地致力于改善其增强现实平台ARCore 。现在,该公司表示已准备好公开一些已经实现的深度检测和物理性能的下一代升级,这有望使AR体验在未来看起来更加现实 。
升级是ARCore全新的深度API的一部分,将很快允许开发人员执行所谓的遮挡,即当场景中的其他现实对象可以阻止人造对象可见时 。例如,将虚拟猫放在您的客厅中,以一定角度摆放相机(在它们之间放置床或桌子或其他物体)时,您会看到它从视野中消失 。
结果是更真实的场景,因为引擎盖下进行的深度检测意味着您的智能手机可以更好地理解场景中的每个对象以及每个对象彼此之间的距离 。Google表示,可以通过优化现有软件来做到这一点,因此您不需要配备特定传感器或处理器类型的手机 。这一切都发生在设备本身,而不依赖于云的任何帮助 。只要您拥有支持ARCore的手机(这是最近几年发布的几乎所有新的Android手机),您就可以使用这些新功能 。
我们以前在手机上看到过遮挡 。神奇宝贝Go创作者Niantic展示了一个遮挡演示的视频,其中演示了一个微型虚拟皮卡丘,在城市广场上飞梭,在物体之间穿梭,并与环境无缝融合 。那是在2018年7月 。但这只是一个视频,而不是媒体成员可以在设备上运行并实时运行的演示 。
在上周与Google AR部门的成员举行的一次会议上,我得以体验了为演示新深度技术而开发的实时演示 。当然,它是在Google为演示安排的测试环境中进行的,但该技术确实有效 。实际上,它将作为家庭设计应用程序Houzz和Google自己的AR in Search功能更新的一部分从今天开始提供 。
【Google将在网络和移动应用中展示令人惊叹的全新AR功能】您在Houzz上找到的属于应用程序“在我的房间3D中查看”功能的家具现在将支持遮挡 。谷歌表示,超过2亿台Android设备也将对在Google搜索中具有AR模型的任何对象进行遮挡 。
我确实看到了一些Depth API的新功能的演示,这些演示今天不会在商业应用程序或服务中出现,但是Google表示,这些改进将在与开发人员和其他人更紧密地合作之后,将来会提供给开发人员 。合作者完善其某些方法 。
这些超越了遮挡,进入了更加逼真的物理和3D映射 。Google为AR对象开发了一种更现实地与现实世界进行交互的方式,可以像现实世界中的3D对象那样在环境中移动,并可以像您希望物理物质那样与曲面进行交互 。例如,在我经历的演示中,我能够凭空制作出彩色形状的块,这些块几乎可以从任何表面弹起,甚至包括健身车的把手 。
Google还制作了一个小型游戏,通过遍历现实对象和新的Depth API的表面交互功能,展示了AR对象在环境中移动的能力 。它涉及一个烹饪机器人,该机器人与您进行食物斗争,并考虑到了家具和环境的墙壁,甜点在表面上留下了真实的飞溅 。
Google不会向公众公开这些演示,但该公司表示希望在准备向所有开发人员发布更新的Depth API时,应用程序制造商将提供类似的,大大改善的体验 。该公司没有时间表来确定何时更广泛地发布此工具集,但这些功能可能会在明年的某个时间出现在应用程序和AR Web体验中 。

    推荐阅读