它是如何工作的呢?当你看到一样东西,比如说一朵花,你想知道它是什么。那么你只需要用手机对准它,调用Google Lens功能,我们就能告诉你这是什么花。或者,当你走在街道上看到一排餐馆,也可以用手机对准它;因为我们知道你的位置、拥有知识图谱,所以知道你看到的是什么,并可以向你提供有价值的正确信息。
如你所见,我们开始理解图像和视频了。Google之所以有过去的成就,就是因为我们开始理解文字和网页了,因此能够理解图像和视频对于我们来说意义深远。
通过将搜索的力量带入物理世界,Google正在大幅拓展可搜索数据的范围,新增加的数据又带来了良性循环。其潜在的优势远大于数据本身。作为与物理世界交互的方式,Google Lens开启了许多应用的大门,比如说扫描二维码付款。
我唯一担心的是Google会重蹈覆辙,将Google Lens功能局限在Google Assistant和Google Photos两个应用中,阻碍其进一步发展。最理想的状态是,Google Lens能够成为一款独立的app,这是它在其他应用中发挥功能的基础。
毫无疑问,这三大应用未来的发展机会都不同于搜索引擎,尤其是在市场开放度和盈利模式上。Google Assistant需要开发独立的App,而不是内置在产品中;Photos需要单独下载,而不是作为系统的默认应用;Google Lens则凌驾于这两款应用之上。与简单地把Google设置成浏览器首页不同,未来使用网络的人越多Google就越赚钱。
Google Assistant、Google Photos和Google Lens这三大应用一起巩固了Google的优势:
Google Assistant将使Google的服务随处可用。
Google Photos以大数据和机器学习带来的更好地体验取胜。
Google Lens则把Google的强大能力扩展到了物理世界当中。
此外,Google正致力于打造一个跨设备的VR平台,在多种价位的设备上提供沉浸式体验。而不是像Facebook一样走高端路线,在社交网络中创造近乎真实的VR体验。苹果通过投资芯片强化其产品的同时,Google也在投资芯片,以实现更加强大的机器学习。