A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

亚马逊陷“窃听风云”:雇上千员工听用户Alexa对话 一句“高度保密”就想躲掉?

分享到:
 Evelyn Zhang • 2019-04-13 17:19:41 来源:前瞻网 E2447G1
100大行业全景图谱

2014年上市的亚马逊Echo是世界上最流行的智能音箱,但近日却因员工曝光陷入了“隐私门”。

像许多其他科技公司一样,亚马逊也对自己在AI方面的大举投入毫不讳言。“我们用来训练这些系统的数据越多,Alexa的工作效果越好,并且Alexa通过各种客户的语音录音进行培训,这有助于确保Alexa适合所有人。”

但据彭博社昨日披露的深入调查结果,公司没有明确告诉你的是——随着时间推移,Alexa作出改善的一大原因就是让人类来听录音,而非一昧地采用人工智能、深度学习。Alexa“生活在云端,一直在变得更聪明”的口号恐怕再也难以站得住脚。

595

全球有上千名员工负责听录音,有人会相互讨论

亚马逊旗下子公司Alexa Internet于2014年开发了一款智能喇叭,取名为Echo,Alexa是该设备上搭载的语音识别系统,用户只需喊一声“Alexa”,Echo就会被唤醒,并应用户命令,帮助他们完成通话、查找资料、点外卖、叫车等生活琐事。

此前,亚马逊从未公开过它会人工听取用户和Alexa的私人聊天,也没有披露过Alexa的语音技术中,部分包括人类参与。

彭博社报道称,亚马逊在全球有数千名工作人员,他们人工听取和检查用户和智能语音助手Alexa的私人对话,目的是帮助Alexa改进语音识别技术。执行这一工作的团队包括全职亚马逊员工和合约工,工作地点遍布世界不同地区,包括波士顿、哥斯达黎加、印度、罗马尼亚。员工签署了保密协议禁止公开谈论这一项目。

7位为该项目工作的员工向彭博社透露了亚马逊Alexa的这项人工声音检查流程,称这款产品背后的语音识别服务自动录制了使用者的部分对话,对存在歧义的指令进行解析并标记,并发送至亚马逊设立在海外多地的工作站,进行人工识别与标记。罗马尼亚首都布加勒斯特的两位员工透露,他们一天工作9小时,每班解析多达1000条音频片段。

当然,这一切都埋没在很少有消费者会阅读的产品和服务条款中,亚马逊经常淡化在全球数百万家庭中使用摄像头和麦克风的隐私影响。但人们对人工智能如何受到培训的关注,因为它在我们的日常生活中变得越来越普遍,只会继续引发警报,特别是因为这项技术的大部分工作仍然是闭门造车,并改善亚马逊不愿透露的使用方法。

亚马逊员工“偷听”用户语音记录,以改善其服务,这种数据注释的过程正悄然成为机器学习革命的基石,它推动了自然语言处理、机器翻译、图像和对象识别的进步。

AI算法只有在他们有权访问的数据可以轻松解析和分类的情况下才会随着时间的推移而改进。

在许多情况下,人类通过收听交换记录并正确标记数据来进行这些呼叫,以便将其反馈到系统中。这个过程被广泛地称为监督学习,在某些情况下,它与所谓的半监督学习中的其他更自主的技术相结合。

苹果、谷歌和Facebook都以类似的方式使用这些技术,并且Siri和Google Assistant随着时间的推移而得到改善,这要归功于需要人眼和耳朵的监督学习。

亚马逊的部分员工、承包商和一些全职工作人员,都在负责解析Alexa录音的任务,以帮助改善助手。虽然这种方法当然没有任何原始的恶意意图,但大多数客户并不经常意识到这种情况正在发生。此外,还有滥用的余地。录音可能包含明显可识别的特征和有关谁在讲话的传记信息。还不知道这些录音的存储时间长短,以及该信息是否曾被恶意第三方窃取或被员工误用。

令人不安的是,本次事件中包括录音、转录、识别、反馈在内的一系列工作,都是在用户所不知情的情况下秘密完成的,其内容涉及到办公室对话、家庭聊天、个人私密信息甚至犯罪现场等多个方面。

彭博社的报告提到了一些亚马逊员工表示,曾听到过他们认为可能是性侵或其他形式的犯罪​​活动的情况,在这种情况下,亚马逊有执法的循环程序。 (有一些备受瞩目的案例,其中Alexa语音数据被用于起诉犯罪。)在其他情况下,报告说,一些办公室的工作人员还与同事分享他们觉得有趣或令人尴尬的谈话片段,以“缓解压力”。

亚马逊在一份声明中告诉彭博社,“我们只会注释一小部分Alexa录音,以便改善客户体验。例如,这些信息有助于我们培训我们的语音识别和自然语言理解系统,因此Alexa可以更好地了解您的请求,并确保服务适用于每个人。“该公司声称它具有”严格的技术和操作保障,并有一个滥用我们系统的零容忍政策。“员工无法获得参与Alexa语音请求的用户的身份,并且该类别的任何信息都被“高度保密”,受到”多因素保护“用于限制访问、服务加密和审核控制环境的身份验证。“

尽管如此,对这种人工智能进步方法的批评者已经在一段时间内敲响警钟,通常是在亚马逊犯错误并意外地将录音发送给错误的个人或者发现它已存储数月甚至数年的录音时。

去年,Alexa曾因判断错误而“自作主张”,将一对夫妻的私人谈话发给了丈夫的一位同事。早在去年12月,一位德国居民详细说明了他如何根据GDPR数据请求从亚马逊收到1,700个录音,即使该男子没有Alexa设备。通过文件解析,德国杂志的记者c't能够通过使用从他与Alexa的互动中收集到的信息来识别实际用户。

亚马逊存储了成千上万的语音录音:“高度保密”?

亚马逊正在积极寻找摆脱那种需要大量抄录和注释的监督学习的方法。 Wired在去年年底的一份报告中指出亚马逊如何使用新的、更先进的技术,如所谓的主动学习和转移学习来降低错误率并扩展Alexa的知识库,即使它增加了更多的技能。

Alexa应用科学总监亚马逊的Ruhi Sarikaya本月早些时候在Scientific American发表了一篇名为“Alexa如何学习”的文章,详细说明了这种大规模机器学习的目标是如何减少繁琐的人力劳动只需要解决它的错误。

Alexa也经常犯错,尤其是俚语、口语、方言和非英语的语言。因此亚马逊需要雇佣人类员工,帮助填补算法的空白。

“在最近的人工智能研究中,监督学习占主导地位。但是今天,商业人工智能系统产生的客户互动远远超过我们手工开发的标签,“Sarikaya写道。“继续商业人工智能迄今为止所提供的极高的改善率的唯一方法是将自己重新定位于半监督,弱监督和无监督学习。我们的系统需要学习如何改进自己。“

然而就目前而言,亚马逊可能需要具有人类语言和文化知识的真实人员,来解析这些Alexa互动并理解它们。这种令人不舒服的现实智能音箱的那一端始终是用户的隐私。这是AI提供的便利的代价,至少在亚马逊的眼中是这样。

幸亏亚马逊所收集到的音频相关信息中并不包括用户的真实姓名及地址,仅有Echo设备序列号等基本信息。

亚马逊也承认员工的监听行为,但坚称会全力保护用户私隐。彭博社引述亚马逊发言人的话称,只有极小部分的录音样本会被拿去标记,目的也是为了优化用户体验。亚马逊发言人则就此次“隐私门”回应称:“我们有严格的技术和操作保障措施,对滥用我们系统的行为零容忍……员工不能直接访问作为工作流程一部分的个人或账户标识信息,所有信息都别高度保密。”

苹果的Siri也有人类员工的帮助,他们负责评估语音助手对请求的解释是否与用户说的相符。根据苹果安全白皮书,员工检查的Siri录音是没有个人身份信息的,录音会与一个随机标识符关联,存储六个月,之后这些数据就会被移除随机标识符,但它们也有可能存储更长时间以改善Siri的语音识别。

在谷歌,一些人类员工也可以获取谷歌助手的音频片段帮助训练和改善产品,这些音频也没有个人身份信息,并且经过音频失真处理。

这些语音助手都不仅通过海量数据进行机器学习,背后还需人工帮助填补算法空白。根据苹果安全白皮书,员工负责评估Siri对用户命令的解读是否符合真实情况。根据苹果安全白皮书,Siri的录音会被加密,并且不含个人帐号信息,存储半年后会被移除,但也有部分被存储更久。

相关深度报告 REPORTS

2024-2029年中国智能家居设备行业市场前瞻与投资策略规划报告
2024-2029年中国智能家居设备行业市场前瞻与投资策略规划报告

本报告前瞻性、适时性地对智能家居设备行业的发展背景、产销情况、市场规模、竞争格局等行业现状进行分析,并结合多年来智能家居设备行业发展轨迹及实践经验,对智能家居...

查看详情

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p43 q1 我要投稿

分享:

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J