电子说
5月8日消息,2019年Google I/O大会在旧金山芒廷维尤的圆形海岸剧场举行。在时长几乎两个小时的演讲环节,谷歌展示了搜索、语音助手、Android Q和智能硬件方面的更新。
1、搜索—加入AR后更逼真展示
Goolge CEO Sundar Pichai 首先登台,介绍了 Google Search 的重大更新——3D 模型 AR。
举例来说,当用户在 Google 中搜索 “鲨鱼” 时,在搜索列表中会呈现鲨鱼的 3D 模型;点击之后,用户可以对 3D 模型进行触控;如果点击界面中的 AR 选项,则可以看到鲨鱼模型在现实生活中的场景。可以说是非常炫酷了。
需要注意的是,Google Search 之所以能够呈现 3D 模型,实际上是得益于 Google 与合作伙伴的合作。Google 表示正在与 NASA、New Balance、Samsung、Target、Visible Body、Volvo、Wayfair 等企业或机构合作,以便在搜索结果中呈现更多的 3D 内容。
2、更强大的 Google Lens
Google Lens 发布于 2017 年,在本次 Google I/O 中,它也得到了重大更新;具体如下:
当用户在餐厅中用 Google lens 扫描菜单时,Google Lens 可以自动推荐最受欢迎的餐品,点击之后可以直接看到食物照片和用户评价。
Google Lens 可以直接对车票等上的文字信息进行识别并实时翻译,然后自然地覆盖在原有的文字信息上。
通过与相关的合作,当用户用 Google Lens 扫描呈现在 Bon Appetit 杂志中菜品时,甚至可以直接在画面中看到这个菜品的动态制作过程。
简单来说,就是 Google Lens 更好地与 Google Maps、计算机视觉、AR 等技术相结合,从而为用户带来更多便利的功能。
3、不再依赖网络的 Google Assistant
作为 Google 旗下最为重要的智能助手,Google Assistant 现在覆盖了超过 10 亿台设备,在 80 个国家/地区提供 30 多种语言,并与全球 3500 多个品牌的超过 30000 ***特的家庭连接设备合作。
在本次大会上,Google Assistant 也迎来了一个重大更新——新一代 Google Assistant。
Google 表示,在不断发展的神经网络的基础上,该公司开发了全新的语音识别和语言理解模型,将云计算中 100GB 的模型降到不到半 GB,也就是说,AI 驱动的 Google Assistant 现在可以在用户的手机上本地运行。由此,Google Assistant 可以手机上以几乎零延迟处理语音,即使在没有网络连接的情况下,也可以实时进行使用。
Google 表示,基于本地部署优势,下一代 Google Assistant 将以 10 倍的速度理解和处理用户指令并给出答案;无论是跨应用操作、还是多轮对话,都能够轻松进行。
4、基于网页的 Duplex
在 Google I/O 2018,Google 发布的 Duplex 功能,可以帮助用户打电话订餐;如今,Google 将 Duplex 带到了网页上。
具体来说,用户只要问 Google Assistant,“为我的下一次旅行预订一辆全国通用的车”,剩下的交给 Google Assistant 就可以。它可以将导航该站点并输入用户信息,如保存在 Gmail 中的旅行详情或保存在 Chrome 中的付款信息——非常方便。
Google 方面表示,Duplex On Web 将在今年晚些时候在美国和英国地区的 Android 手机中上线,提供英文版,可以为租车和电影票提供助手服务。
5、Google Assistant 驾驶模式
今年早些时候,Google Assistant 被整合在 Google Maps 中;不过这一次,Google Assistant 推出了全新的驾驶模式。
Google 驾驶模式的核心交互是语音。用户可以用它来实现导航、发信息、电话呼叫和播放音乐等操作。它也可以用户提供建议建议,比如用户在日历上预订了晚餐,将能够看到餐厅的导航;或者,如果你在家里开始播放音乐,可以在离开车的地方重新开始;如果有人打来电话,Google Assistant 会告诉用户是谁打来的,并询问是否愿意接听。
在启动方式上,当用户手机连接到汽车蓝牙或者直接说 “嘿,Google,我们开车吧”,助手的驾驶模式就会自动启动。
最后,该模式将于今年夏天在 Android 手机上与 Google Assistant 一起提供。
6、帮助 ALS 患者更好地表达沟通
在本次 Google I/O 中,Google 也表现出了 AI 向善的一面,利用 AI 帮助部分群体解决沟通问题。
具体来说,针对 ALS (肌萎缩侧索硬化)患者的沟通问题,Google 开发了一个语音识别模型,专门针对的这些患者的发音进行训练,以便更好地识别他们所表达的内容,从而形成文字呈现出来,以便让他们更好地沟通。
Google 方面表示:
为了做到这一点,Google 软件将录制的语音样本转化为声谱图或声音的视觉表示。然后,计算机使用通用的转录谱图 “训练” 系统,以便更好地识别这种不太常见的语音类型。我们的人工智能算法目前的目标是适应说英语的人,他们有典型的与 ALS 相关的障碍,但是我们相信我们的研究可以应用于更大的人群和不同的语言障碍。
7、Android Q:预览覆盖 13 个品牌 21 款设备
Android 不再是 Google I/O 的核心,但无疑然是非常重要的,Google 方面表示,Android 系统到现在覆盖了超过 25 亿的活跃设备。
在本次大会上,Android Q 带来了以下更新:
支持折叠屏手机。其实这一点已经在三星 Galaxy Fold 上得到体现了,Google 为折叠屏手机准备了多任务模式、应用切换模式等。
支持 5G。虽然 5G 还没到来,Google 已经做好准备;在游戏、AR 方面会与 5G 的带来做好对接。
暗黑模式。既好看,又省电。
On-Device 机器学习。基于 On-Device 功能,Google 推出了 Live Caption 功能;该功能能够对视频中的音频进行转化为文字的操作,在直播视频上也能够实现——而且 Live Caption 并不依赖网络,在离线状态下也能够完成,可以说是非常厉害了。
更强大的 Smart Reply。当用户收到信息时,可以在通知中心直接利用 Smart Reply 进行回复,同时,如果信息中含有地址信息,可以直接在 Google Maps 中打开。
安全和隐私。如今对于 Google 来说,安全和隐私显得非常重要,Google 表示在 Android Q 中增加了 50 多项功能来保护用户的隐私和安全。
Focus Mode 。去年 Google 推出了 Digital Wellbeing 来帮助人们减少对手机的过度使用;今年 Google 推出的 Focus Mode 可以让用户自定义在该模式下需要使用的 App,以免被过多打扰。
与去年相比,Google 扩大了 Android Q Beta 的规模,它可以覆盖 13 个品牌的 21 款设备,其中包括来自小米、华为、一加、OPPO、vivo、Realme 等国产品牌的手机。
8、Pixel 3a:399 美元起
正如外界所预测的那样,谷歌在本次 I/O 大会上发布了中端新机 Pixel 3a ;这是 Google 在不到一年的时间里第二次发布新手机(Pixel 3 于 2018 年 10 月发布)。实际上,I/O 历来都以软件为主,硬件登上大会舞台并不常见。
首先,我们来看一下这一款手机的定价:官方宣布,Pixel 3a 的售价为 399 美元。从价格方面来看,这款新机确实要比之前的旗舰机 Pixel 3 更诱人。此前,Pixel 系列手机在软件方面表现优异,但销量一直欠佳,其中一部分原因就要归结于不菲的价格。
在配置方面,Pixel 3a 屏幕为 5.6 英寸,机身顶部预留了 3.5mm 耳机接口,电池容量为 3000 mAh,处理器为高通骁龙 670 处理器;Google 地图中引用了 AR 技术,能够实时识别摄像头内的地点是否与地图上的位置相一致——充满电之后的续航时长可达 30个小时;仅充电 15 分钟也能续航 7 小时。
非常值得一提的是,虽然这款新机只拥有一枚摄像头,但它的摄像头功能十分强大——具有人像模式、超高分辨率变焦和夜视等功能,可以在低光线下捕捉清晰的镜头。Google 发言人甚至自豪地说道,“别人使用昂贵设备拍摄出来的效果,Pixel 3a 通过 AI 计算就能轻松超越。”
除了摄像功能,Google 也特别注重 Pixel 3a 在安全和隐私方面的表现。据称,Pixel 3a 内置了Titan M 芯片,旨在保护用户的敏感数据;Google 还承诺,将提供三年的安全和系统更新,确保 Pixel 3a 免受不断出现的威胁。
不过,在外观方面,Pixel 3a 与之前的 Pixel 3 区别不大,均有白、黑、浅紫三个颜色可供选择。
另外,在渠道上,Pixel 3a 与Verizon, T-Mobile, Sprint, US Cellular, Spectrum Mobile (Charter), C Spire and Google Fi 等运营商达成合作,将在 13 个国家和地区进行销售。
9、Nest Hub Max:229 美元起
此前,Google Store 中曾出现关于“Nest Hub Max”的相关信息,不过很快就被移除了。在本次的 I/O 大会上,Nest Hub Max 的神秘面纱被揭开。
无论是在配置上,还是在功能上,Nest Hub Max 与之前的 Home Hub(该产品已经被重新命名为 Nest Hub)有点类似。不过,Nest Hub Max 具备了 Home Hub 并不具备的安全功能,也增加了一颗前置摄像头(可以通过一个物理按钮关闭来保护隐私)。当用户出门在外时,可以通过这款产品上装置的摄像头来观察家里的情况,如果 Nest Hub Max 检测到家里有陌生人,也会及时向用户发送信息。
Nest Hub Max 还有一个更加人性化的改进——手势识别技术。有了这项技术,用户在与设备进行交互时甚至可以不用发声,只需要看着摄像头,把手抬起来做一个手势就好。
Nest Hub Max 售价 229 美元,今年夏天在美国开售;另外,它在英国和澳大利亚的价格分别是 219 英镑和 349 澳元。
10、联合学习:Federated Learning
2017 年,Google 曾经发表过一篇介绍联合学习技术的博客,这一技术的重要特点就是在保护数据隐私的情况下来进行学习——它能够在不共享数据的情况下怎么能过来挖掘数据内在的价值,也就是在兼顾数据隐私的情况下同时又能提供智能服务。
以医疗为例,首先在不同医院用它自己的数据训练出来不同的模型,然后把这些模型送到中心处理器并整合为一个完美模型;当每个医院不停获取数据,通过把最新的完美模型下载到医院端,并将新数据导入,再推送回中心服务器;通过这样的步骤,新的数据不会被交换出去,被交换的只有模型,所以数据也不会被反向揭露。
在本次 Google I/O 中,Google 提到了联合学习,并表示它已经在 Gboard 应用中得到使用。
此外,谷歌宣布推出全新的BERT语言学习模型,并且将AI应用于糖尿病并发症的筛查和预测洪涝灾害。
谷歌首席架构师Jeff Dean表示,谷歌希望AI能像人一样流利的使用语言。在全新的BERT语言训练模型中,训练机器学习的时候可以随机隐匿部分单词,然后让AI去猜并填词。
随后他开始介绍TensorFlow。目前,谷歌正借助AI在印度和泰国对数千名糖尿病患者进行并发症的筛查,该模型刚刚通过了欧盟监管机构的批准,它可以对CT扫描图像进行精确分析。在一项测试中,该模型顺利发现了早期肺癌症状,而参与该项测试的6名放射科医生,有5名没有发现这个症状。
此外,谷歌正在研究将AI用于预测洪涝灾害,洪峰水位预测。去年,AI的道德问题引起了非常大的关注,谷歌也发布了禁止将AI用于武器和违背人权的研究,并加大了“AI 促进社会公益”的宣传。
全部0条评论
快来发表一下你的评论吧 !