首页 综合动态 > 内容

人工智能和图像上的谷歌搜索库可提供更相关的答案

时间:2022-11-02 11:10:07 来源:
导读 在昨晚的GoogleSearchOn活动中,该公司宣布了新功能,称其将通过人工智能的进步重新构想搜索。多年来,谷歌一直致力于让输入查询更加自然,

在昨晚的GoogleSearchOn活动中,该公司宣布了新功能,称其将“通过人工智能的进步重新构想搜索”。多年来,谷歌一直致力于让输入查询更加自然,结果更加个性化,由于人工智能和计算机图像的进步,他们今年继续保持这一趋势。

通过允许您使用智能手机的相机拍照并将其或照片中的图像添加到搜索栏中,添加一些文本或语音查询以获取更多上下文,并调用相关内容,在Multisearch中搜索图像变得更加容易结果。

例如,在您的智能手机上打开Google应用程序,点击镜头图标并拍摄一件连衣裙的照片,然后使用“+添加到您的搜索”按钮添加“绿色”等文字,搜索将使用图像和文字来查找相关内容结果就像您最喜欢的在线商店中绿色连衣裙的价格一样。

由于谷歌地图中沉浸式视图的人工智能改进,世界也越来越近。去一个新的地方,想先感受一下吗?例如,用户可以在某个区域或地标上以视觉方式翱翔,以查看任何给定时间的停车或街道状况。

使用预测模型,沉浸式视图会自动了解一个地方的历史趋势,以确定该地区明天、下周甚至下个月的情况。因此,如果您正在访问旧金山并想参观甲骨文公园,您将获得计划一天所需的所有信息。如果您需要雨伞或夹克,您将能够看到停车场、入口。比赛结束后需要找点吃的吗?谷歌可以找到任何你想吃的东西,它可以滑到街道水平,窥视里面,知道它会有多忙。

未来几个月,沉浸式视图将在洛杉矶、伦敦、纽约、旧金山和东京推出Android和iOS平台,其中包括大约250个地标以供参考。

谷歌还在用LiveView扩展LiveViewwithSearch,它可以帮助你更直观地找到你周围的东西。

在户外市场购物时需要自动柜员机吗?拿起您的智能手机,使用实时视图搜索将显示您周围的所有ATM。用户还可以使用它来查找不同的地方,例如咖啡店、杂货店和车站。

使用LiveView进行搜索将在未来几个月在Android和iOS上在伦敦、洛杉矶、纽约、旧金山、巴黎和东京推出。

谷歌翻译功能更强大,可以提供更相关的结果。借助称为生成对抗网络(GAN)的机器学习技术,谷歌现在能够将翻译后的文本混合到背景图像中。

例如,将您的相机对准另一种语言的杂志,您现在会看到翻译文本真实地叠加在下面的图片上。因此,您现在可以通过图像和文本获得更多上下文和更好的理解,这都为翻译增加了意义。

标签: