疫情在国外来势汹汹,越来越多人不得不长期待在家中。这个时候如果手指闲不住,不如试试在谷歌搜索中检索动物,就会有栩栩如生的3D“动物”空降你家,而且其违和感已相较之前大大降低。
在推特上,不少网友都跃跃欲试,让这个早在年就发布的功能意外蹿红,甚至帮助不少家长解决了如何让小朋友乖乖留在家中的问题。
如下图所示,网友们展示的谷歌搜索3D动物效果是不是还不错?
有驰名中外的国宝熊猫,
(来源:推特网友JuliaDweck)
有狮子,
(来源:推特网友HarryLakhani)
有猫咪,
(来源:DeepTech)
有鳄鱼,
(来源:推特网友JuliaDweck)
有企鹅,
(来源:DeepTech)
还有蛇、老虎等其他野兽猛禽。
那么,要如何开启这个功能?
首先,你需要一台当代智能手机(希望你没有卡在这一步)。设备要求:
运行Android7.0或更高版本的Android智能手机/运行iOS11或更高版本的iPhone适用于Android/iOS的GoogleChrome浏览器
图丨Viewin3D按钮(来源:谷歌)
然后,在浏览器中的谷歌搜索中输入你想搜索的动物,例如“猫”(中英文皆可),在图片搜索结果和Wikipedia对猫的描述下面就会出现“以3D模式查看(Viewin3D)”的按钮,此时开启iphone相机用以扫描地面,在你的相机视野之内就会出现一只3D猫。而且这只动物还可以呈现出适配真实环境的大小,因此你不会觉得太有违和感。
当你拍小视频回看的时候,还能看到这些动物动起来。
图丨推特网友称自己拥有了两只狗(来源:GaryTaphouse)
根据外媒统计,Google3D动物已经包括以下24种动物:鳄鱼、琵琶鱼、棕熊、猫、猎豹、狗、鸭、鹰、帝企鹅、山羊、刺猬、马、狮子、金刚鹦鹉、章鱼、哈巴狗、大熊猫、罗威纳犬、鲨鱼、小马、蛇、虎、龟、狼。
这个清单不但可以让你猫狗双全,更足够支撑在你家中“建造”一个动物园。
(来源:推特网友EIS-Meadows)
(来源:谷歌ARCore)
谷歌3D动物背后的核心技术——增强现实(AR)——已经存在了很长一段时间。
“AR”一词最早是在年创造的,最初是用于电视产业和*事目的的技术。随着互联网的发展,AR和VR技术得到了极大的改进,但是直到智能手机的发明和普及,诸如谷歌3D动物之类的实现成为现实。现在,大多数智能手机都能够将3D模型实时投影到物理物体上,尤其是通过AR应用程序。而这次AR搜索功能早在年的I/O大会上就已发布。
图丨去年谷歌I/O大会上亮相的3D动物功能(来源:谷歌)
当时,谷歌宣称,ARCore和ARKit手机用户用谷歌搜索引擎搜索动物的时候,会收到开启动物3D模型的邀请,接受之后便能以AR的形式将动物模型叠加在真实空间中。
副总裁AparnaChennapragada如此介绍这项最新视觉技术:由于整合摄像头和AR技术,因此可以强化谷歌搜索结果的互动性和实用性。
其背后的原理是直接在ARCore和ARKit手机上搜索结果中加入3D模型,而这些3D模型将直接能AR预览,玩法和去年WWDC上的USDZ文件格式与AR预览类似,只是谷歌将3D文件直接嵌入到搜索结果页面。
无论你搜索的是人体骨骼,一双鞋,还是一条鲨鱼,都没问题,只要谷歌制作了3D模型,就可以通过摄像头,展示在现实场景中,供用户查看效果。它们不仅可以活动,还能够接受放大、缩小、运动和转移等操作指令。
可以肯定的是,3D化的搜索结果不仅仅停留在有趣这一阶段,它可以给用户带来更直观的使用体验和感受,加深对物体运作机制的理解程度。想象一下,如果你想知道鳄鱼长什么样子,除了看到实物,有什么东西能比一个会跳动的、可以放大缩小和分解的立体模型更加形象的呢?尤其是它可以随时随地出现在任何地方。
谷歌的AR项目——ARCore自年问世以来,便屡次被与苹果的ARKit作比较,但因该项目的前身“TangoProject”命途多舛且创新平平,从而被认为是ARKit的追随者。
图丨基于ARCore的运动追踪和环境理解功能的滴滴导航应用(来源:谷歌)
不过,借助谷歌的安卓生态阵营,ARCore崛起的速度仍不可小觑。年谷歌正式发布ARCore1.0版本,不仅完成了年定下支持覆盖1亿台智能设备的小目标,还宣布与包括华为、小米在内的多家中国智能手机厂商展开合作。
现在,不仅是手机厂商,ARCore在中国互联网应用中的渗透率也可谓强劲。据了解,京东的AR实景购、腾讯手游《一起来捉妖》、滴滴的AR实景导航功能背后,都有谷歌ARCore的身影。
图丨左边没有遮挡功能的“喵星人”在空间里穿越了,而开启遮挡功能的“喵星人”则逼真地藏在了遮挡物后面(来源:谷歌)
一些最新视觉前沿技术也正在推动ARCore的体验改进。最新的一次改进便是对于用户体验有着关键性影响的环境深度识别。
根据公开报道,去年12月,谷歌宣布为ARCore开发平台推出全新深度识别工具DepthAPI。该工具可让开发者使用谷歌的动态深度算法、RGB摄像头制作深度地图,以开发更自然、交互感更强的AR应用。据悉,DepthAPI的使用方法非常简单,用户只需从多个角度拍摄多张照片,即可实现对环境深度的预测。DepthAPI实现的另一项重要功能是遮挡:虚拟物体能够准确地出现在现实物体的之前或者之后,数字对象与场景真正融合在一起。此前没有遮挡功能,虚拟物体容易“横空出世”,更像是现实世界中的“贴图”,让人瞬间出戏。
这项技术的原理在于,DepthAPI可以进行更深的检测和理解,手机可以更清楚地知道每个场景下每个物体之间的距离和位置等信息。在此之前,手机要获得深度图像,通常需要双摄像头或ToF传感器。ToF(TimeofFlight,飞行时间)是一种深度信息测量方案,原理是投射器向外投射红外光,红外光遇到被测物体后反射,并被接收模组接收,通过记录红外光从发射到被接收的时间,计算出被照物体深度信息。
在DepthAPI的支持下,手机在仅有单颗摄像头的情况下就可以实现自动捕捉并估量手机与周围环境之间的距离。
谷歌表示,这一切意味着你不需要去更换一个带有特定传感器的手机,要实现这些仅仅只需要优化软件,而且不依赖于任何云。不过尽管如此,有ToF传感器加持的话能实现更快地动态遮挡,衔接过渡需要的处理时间会更短。
不过,尽管DepthAPI强调不依赖云,但业内的普遍共识是,AR在智能硬件上的普及和爆发仍需要5G网络的到位。相信随着5G时代的逼近,AR的体验还会有更大的改进空间。
图
iphone将装备ToF相机镜头组件(来源:wccftech)
目前,疫情期间的这股AR体验小高潮还在持续,或许这次意想不到的事件会帮助推动市场进一步挖掘AR技术的价值,形成一次很好的用户教育,不知道你对谷歌的这个功能感受如何?