【CNMO新闻】你是否觉得如今的搜索引擎并不能很好的满足你的搜索需求?你是否也觉得手机AR仅仅用在抓《口袋妖怪》上也有点大材小用?北京时间5月8日凌晨,谷歌I/O开发者大会在美国正式召开,会议开始,第一件事,谷歌便给我们展示了一个搜索引擎未来的样子。
I/O开发者大会现场
通过摄像头与AR进一步将搜索结果形象化
现在,谷歌让AR技术与摄像头更好的应用在了搜索引擎中,比如,你在谷歌搜索中搜索“大白鲨”(前提是你可以用谷歌搜索)。你便可以在搜索引擎下展示出的结果中找到一个可以3D演示的大白鲨3D模型,同时,你也可以通过摄像头,将这一模型活灵活现的展现在摄像头捕捉到的实际场景中。
通过AR实现的全新搜索体验
这种感觉就像通过搜索便可获得一个搜索结果相应的全息影像,并且,该影响还可以与你刑场一种互动。谷歌方面表示,“内容提供商不必做太多其他事情。”目前,谷歌已经与NASA,New Balance,三星,Target,Visible Body,Volvo和Wayfair合作,将3D图像整合到Google搜索中。AR效果将启动到名为Scene Viewer的新Android功能中。
Google Lens让低端手机也能拥有旗舰功能
I/O开发者大会上展出的令人惊讶的一个功能其实就是通过镜头实现的翻译功能。镜头现在可以显示来自其他语言的翻译,这些翻译可以无缝地映射到标志或对象上并粘贴在空间中,就像文本真的存在一样。或许你会觉得这些功能目前很多应用都可以实现了,但Google Lens上的效果会更好,如图所示,这样的翻译效果就好像是用相机拍下了一张你看得懂的语言书写出的场景,同时,你也可以点击语音,让它通过你的语音把信息读出来。
翻译出的文字很自然的与原图相结合
这是谷歌翻译中的一种演变,但现在谷歌也进一步从餐厅点餐开始进一步丰富你的应用体验。如I/O开发者大会展示的那样,你只需将手机相机对准菜单,手机屏幕上便会自动将该餐厅最受欢迎的食物以高亮的形式标注出来,你也可以点击这些高亮的标签,了解关于菜品的更多信息。这无疑就是未来想要的搜索的模样。
你可以通过摄像头获得更多的菜品信息
并且,这些功能对于手机的硬件要求并不是特别的高,你甚至可以在低端机上使用到这些先进的功能。
版权所有,未经许可不得转载