首页 黑客接单正文

一文看懂Google I/O 2019:想让 AI 惠及大众,也想守住用户隐私

访客 黑客接单 2021-10-15 867 1 Google手机

Google I/O 2019
今年这场Google I/O大会严格意义上而言,并没有太多革命性意义上的产品——所有的功能都是基于Google既有AI能力的产品化,或者延伸。最让人失望的是,今年并没有“万众期待”的Google Pixel系列的正统续作,反而是多了“一大一小”两种硬件设备。
那么,就让我们先从这“一大一小”说起:
“一大一小”:Hub Max主内,Pixel 3A主外
Nest Hub Max是过去Google Home Hub的升级版——Google将过去用于Smart Home相关智能家居的品牌Nest与用于控制它们的Home Hub合二为一,变成新的品牌Nest Hub Max——Google对这款产品的愿景似乎是成为家庭的中心——这个中心可不仅仅是智能家居的控制中心,它还会是你的家庭信息管理的中心,成为你的厨房电视,成为你的视频语音座机,成为你的电子相框,甚至是你的屋内监控摄像头。
 
Google Nest Hub Max
顺便一提,如果用户在厨房里做饭,需要暂停Nest Hub Max上播放的媒体,只需要用手向它挥手,即可暂停播放。看上去似乎很炫酷,但想象这款本质上就是一个带屏幕的“智能音箱”居然要价$229,你是否觉得打扰了?
至于Pixel系列虽然并没有迎来更新,但它却新增了一条廉价版的产品线——Pixel 3A系列,它售价仅为$399,却想要对标X果的Phone X。Google寄予它的希望是“虽然我们硬件上不旗舰,但我们的软件能找补回来!”
 
三色Pixel 3a
它的硬件外观设计与Pixel 3系列并无太大差别——除了那个3.5mm耳机接口。大致硬件规格与Pixel 3系列相差不远,但它的确填补了过去Nexus系列的价格区间。
 
Phone X vs Pixel 3a(photo via The Verge)
发布会上,Google最为强调它的拍照能力,尤其是夜景能力——简直要秒杀掉他们口中的Phone X了。你我都心知肚明,Phone X到底是什么手机,但Google就是不告诉你。
这次发售的Google Pixel 3a拥有三种配色:Just-black(就是黑),clear-white(非常白)and purple-ish(似紫色),以及让人不禁好奇的官方宣传的30小时续航时间。
隐私&安全:Android Q最重要的更新
当我们都在期待Google Pixel系列手机的时候,我们似乎忘记了这一点:Google是一家以搜索引擎起家的互联网软件服务公司。所以过去几年隐私与安全在太平洋彼岸和亚欧大陆的另一端闹得沸沸扬扬,Google识趣地为自家的Nest Hub Max增加了能关闭麦克风和摄像头的物理开关,为Google Assistant提供了更快更精准的本地语音识别功能。
 
Photo via The Verge
在最新版的Android Q上,安全与隐私也是Google考虑的最主要问题:手机设备的权限,尤其是位置相关的权限优先级被提到更高,Android用户终于可以选择“仅在应用使用时,允许其获取位置信息”;Google在Android Q上,为安全更新准备了一套三件的“Android OS Framework”,自从之后,用户再也不需要更待安全补丁更新,而是像更新App一样,修补手机安全漏洞。
另一方面,孩子们的隐私似乎就并不那么重要了——Android Q上新增了家长模式。家长可以通过手机“监视”孩子们在自己的Android设备上使用了什么样的App,使用时长,甚至可以控制这些App的使用时长。管孩子是方便了,但孩子的隐私也没了。
 
首批获得Android Q更新的厂商名单
这次Android Q上也迎来了两个全新的变化:Focus Mode(专注模式)和Dark Theme(黑暗主题)。黑暗主题毋庸赘言,它是OLED手机屏的好伴侣。至于专注模式,不过是勿扰模式升级改进版——用户可以自定义哪些应用需要静音,哪些不需要,以及屏蔽哪些联系人——这样在用户认真工作或者学习的时候,不止于太过于忘我而错过亲人朋友的 *** 信息。
 
Dark Mode
Android Q也宣布将会正式支持折叠屏手机以及5G *** 。最后关于Android Q,还有一个小秘密——当用户的闹铃响了,用户可以直接用嘴喊停(Stop)关闭闹钟,今夏将会上线所有的Android Q,甚至是Android P系统——而这是正是贯穿整个I/O大会,Google的核心能力——AI。
On-device learning:一切数据都归于用户
这次Google为自己家的Google Lens增加了一系列的新功能:AR显示搜索结果,比如搜索大白鲨,就在现实世界里为你构建一个3D大白鲨;扫描菜谱,为用户播放烹饪技巧;扫描异国文字,不仅能实时翻译,还能语音转文字。最为关键的是,这项功能仅仅在本地占用100kb左右的空间——大部分的运算功能将会在Google云端,即便是一台售价仅为35美米的手机也能享受这样的功能。
 
Google Lens
同样得到增强的还有Google Assistant,新增加了Driving Mode,本地化处理语音数据,语音反应更快捷,也更精准的理解用户的语义——这一切都是On Device,并且Sundar Pichai表示,Google不会收集用户的一切数据——因为他们采用了新的AI模型,Federated Learning。
 
基于Federated Learning G-board上的新功能(本地词组联想)
简单地说,用户手机内将会内置多套算法模型,而用户在不断地使用过程中产生的数据,将会用于本地算法模型的改进和优化,Google并不会读取和上传这部分数据。相反,由这部分数据训练和改进的优化算法模型,将会被上传到云端。结合众多Android设备优化的模型,Google再将优化的结果下载到本地设备之中去。这样,既不会侵犯用户隐私,还能优化Google人工智能的能力。
基于这样强大的算法模型,Google研发了多项新功能:
Live Transcribe语音转文字
Live Caption实时字幕
Live Relay实时 ***
Project Euphonia
借助Google自身强大的AI能力,Google可以将语音转换成文字,比如在接起 *** 之前,Live Transcribe将会把来电者的语音,翻译成文字,让用户决定是否接听;Live Caption则能在Android Q全局为所有视频生成“实时字幕”,无论用户是观看本机视频,还是在线视频,它都能生成实时字幕,并且字幕大小位置可以自行调整;而Live Relay在Live Transcribe基础之上,增加了为用户智能选择答复用语的功能,并且用于回复他人的文字也将会被实时转换成语音。
将这些文字语音转换的功能结合在一起,Google推出了Project Euphonia:其本意在于借助人工智能,识别和提取那些说话有障碍的用户,甚至是渐冻人用户的语音或者表情特征,从而能让他们借助智能手机表达自己的情绪和观点。
总结
这场Google I/O 2019让我们看到了Google背后人工智能的强大实力。他们想要任何人都能享受到科技带来的便利,所以有了AI For Everyone。让异国他乡客能读懂其他的文字,让残障人士能够过上和健全人一样的生活。
但这场大会也透露出了Google对于用户隐私和安全方面的顾虑,整场大会,更高频的词除了Privacy之外,就是Security。如何在不触及红线的情况下,更大程度地惠及用户,让用户享受科技的便利,这不是Google一家公司需要面对的难题,也将会是未来所有科技公司都无法避免的难题。

版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。