A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

拯救选择困难症?越来越省心的AI,可能正在剥夺我们的“做人资格”

分享到:
 Winnie Lee • 2019-05-07 12:03:48 来源:前瞻网 E2930G0
100大行业全景图谱

3443

关于人工智能和人类的未来,不少科幻电影都已经进行了天马行空的描绘。其中既有充满未来感、生活便捷的海陆空大都市,也有人类被AI统治、甚至成为被豢养的宠物的黑暗想象。

人工智能和自动化技术的发展在让一部分人感到欢欣鼓舞的同时,也有相当一部分人感觉恐惧,这是可以理解的。

有人担心自己会失去工作,担心歧视会渗透到自动化决策中,甚至担心我们作为一个物种可能面临“生存威胁”(如果埃隆•马斯克的言论可以被当真的话)。

这些风险被讨论得相当频繁,但到目前为止,有一个严重的威胁一直被忽视:人工智能对人类的能动性和自主性产生的危险。

是的,让人工智能代表我们做出选择的能力起初听起来非常方便。通过预测我们可能喜欢什么、向我们提出产品的购买建议、规划我们如何安排时间,人工智能让人们生活得更加“省心”,拯救“选择困难症”,但同时也可能会削弱我们做出决策、评估替代方案甚至行动的能力。

如果我们允许它对我们这样做,我们将会冒着放弃很大一部分人类权利的风险,不仅是我们的个人自由,还有我们的“人类资格”。

人类能动性的丧失?

这些担忧似乎有些牵强,但它们是由人工智能、媒体和伦理领域的众多研究人员共同提出的。去年12月,皮尤研究中心(Pew Research Center)发表了一项具有里程碑意义的研究,调查了近1000名相关专家对人工智能的看法和预测。

除了37%的受访者表示,在人工智能变得普遍的未来,“大多数人不会变得更好”之外,这项研究还提供了一些重要的证据,证明对人工智能的日益依赖可能会削弱人类的能力。

“在人工智能时代,人类命运最令人担忧的逆转是能动性的丧失,”皮尤研究中心的一名不愿透露姓名的受访者表示。

“为了享受数字生活近乎即时、低摩擦的便利,人们失去了对其过程的了解和控制。随着自动化系统变得更加复杂,而这些系统的所有权属于精英阶层,人们对数字工具的盲目依赖正在加深。”

同样,Mimecast的首席科学家纳撒尼尔·博伦斯坦(Nathaniel Borenstein)也对皮尤提出了同样悲观的预测:“我预计,在这个世界里,IT和所谓的人工智能会带来越来越多的小甜头,同时侵蚀人类的能动性和隐私,另类地助长了威权统治。”

博伦斯坦的观点只是强调将日常任务委托给人工智能的风险的几种观点之一。当他和皮尤中心联系的其他978名专家都在预测2030年的未来世界模样时,有很多迹象表明,我们已经在把自主权交给人工智能。

这些迹象不仅仅以“推荐给你”的形式出现,就像YouTube、Facebook和亚马逊每天都在轰炸我们一样。它们还包括自动完成的写作应用程序、基于人工智能的日程管理应用程序、为社交媒体文章推荐合适报价的应用程序、决定如何管理和优先处理邮件的技术,甚至包括可以规划你下一个假期行程的应用程序。

虽然这类工具主要针对消费者,但在专业领域,也有很多人将决策授权给人工智能的例子,以及可能导致危险的例子。

奥斯陆大学(University of Oslo)媒体与传播系教授查尔斯•埃斯(Charles Ess)解释称:“一些惊人的灾难是由于将人类判断与计算机设备能够做出的机械/算法/人工智能‘决策’混为一谈。”

“也就是说,指出用人工智能的决策技术取代人类的判断所导致的各种灾难是相对容易的,而且也是重要的,比如2007年和2008年的金融危机,以及最近波音737 MAX飞机坠毁事件。”

人工智能决策背后的金钱逻辑

例如,算法在2007年的金融危机中发挥了一定作用,这一点得到了充分的证明。

2006年,在伦敦证券交易所进行的所有交易中,约有40%是由电脑完成的,在一些美国股市,这一数字达到了80%。

对于许多经济学家和专家来说,交易是由定量分析师编写的algos算法完成的,这是全球市场在崩盘前积累了如此多风险的主要原因之一。

就像《极客的狂喜:当人工智能超过智商》(Rapture for the geek: When AI Outsmarts IQ)一书的作者Richard Dooling在2008年为《纽约时报》撰文时写道:“不知怎的,那些天才的定量分析师——华尔街最优秀、最聪明的极客们——可以把一万亿美元的次级抵押贷款债务输入他们的超级计算机,再加上一些衍生品,用计算机算法操纵安排,然后就嗖的一声!创造了62万亿美元的假想的财富。”

即便是现在,德意志银行(Deutsche Bank)首席国际经济学家托尔斯滕•斯洛克(Torsten Slok)仍将“算法驱动”的股票抛售列为全球金融体系目前面临的头号风险。

这种自动决策之所以危险的一个重要原因是,人工智能不具备人类决策通常具有的那种直觉性、基于价值的判断能力。

因为在许多互相矛盾的规范之间做出选择时,选择往往不仅取决于环境和文化,也有关于“我们身体中以一种隐性方式编码的经验和知识”,这很难用算法来实现。

这意味着,随着基于人工智能的应用程序、平台、工具和技术占领我们的生活,我们可能越来越少使用这种决策能力。

正如人工智能专家、德勤(Deloitte)分析师戴维•沙茨基(David Schatsky)所指出的那样,人工智能和机器学习代表着技术本质的一次飞跃,很可能也导致人类社会的飞跃。

他说:“与前几代技术相比,人工智能似乎只是程度上的不同——更多的东西可以自动化。”

“另一方面,人工智能可以如此强大,以至于量变引起质变——系统可以解释和模拟情绪,能够适应个体的态度和行为,并在塑造人类的欲望和行为方面变得越来越有效——以人们甚至可能没有意识到的方式。”

不列颠哥伦比亚大学(University of British Columbia)神经伦理学教授彼得•b•赖纳(Peter B. Reiner)表示:“随着人工智能在决策方面变得更加熟练,人类可能会顺从它们,以方便自己不需要做决定。”

“人们很容易看出,这可能会减少自主决策的频率,并随着时间的推移,减少能动性。因为做决定是一种技能,就像其他技能一样需要练习,如果我们不经常在生活的特定领域做决定,我们做决定的能力也可能会减弱。”

人工智能看似无限的控制权也引向了另一个问题。如果人工智能剥夺了我们的自主权,那么谁将掌握我们的生活?

很显然,那些构建和使用人工智能的公司将从基于人工智能的工具中受益,这些工具将把我们引向它们提供的服务和产品。

赖纳说:“企业利益问题是一个根本性的问题。我认为我们的智能手机——以及我们日复一日使用的整个算法设备生态系统——是我们思想的延伸。如果这是真的,那么企业利益就有可能侵入我们的思维,最重要的是帮助我们以用户通常不理解的方式做出决策。”

Reiner是另一位研究人员,他预测这种企业驱动的AI代理决策现象“只会随着人工智能变得更加普遍而增长”。

虽然现在可能很难想象这样一个情景,但通过最近几个月和几年来为“情感人工智能”技术申请的各种专利,我们可以大致了解一下这样的未来图景。

这些专利包括Facebook、苹果(Apple)、亚马逊(Amazon)、Netflix和谷歌)。例如,去年10月,亚马逊(Amazon)为其Alexa助手的新版本申请了专利,该助手能够检测用户的情绪,然后推荐适当的活动或购买物品。

这个版本甚至可以告诉用户什么时候生病了,并建议他或她做鸡汤,虽然这只是其中一项专利(还有其他专利),但它进一步证明了企业利用数字平台来推广服务和产品的利润驱动趋势。反过来,它也暗示了人工智能工具将如何越来越多地被用来侵入我们的决策过程,所有这些都是为了促进利用这些工具的公司的产品销售和利益增长。

“数字化顺从”和“科技瘦身”

毫无疑问,个人的能动性将至少在一定程度上受到消费人工智能增长的侵蚀,但问题仍然是,我们能做些什么来保护自己不受这种增长的影响。

然而,专注于人工智能的研究人员在这个问题上存在一些分歧。一些人预测,大多数人将乐于放弃自主权和选择权,转而追求更大的便利和轻松。

赖纳说:“最近有一篇论文直接讨论了这个问题,并将这种现象恰当地称为‘数字化顺从’(这也表明企业知道这一点并利用了它)。”

“我相信,人们已经表现出愿意在隐私方面做出这样的权衡,而自主权也不甘落后——尤其是如果我的Netflix和Spotify的订阅是任何迹象的话。”

然而,尽管其他专家普遍同意这种观点,但他们也指出,这并不是人工智能独有的,而且有许多举动可以减少任何潜在的个人能动性的损失。

德勤(Deloitte)的沙茨基(Schatsky)表示:“毫无疑问,面对以方便和效率换取自主权的技术,人们往往会选择这种技术。”

“当有计算器时,很少有人用手做算术。这些技术有时确实会让人们变得不那么聪明,而且依赖于他们的父母不曾需要的技术。”

尽管如此,沙茨基认为,即使在今天,许多人“仍然拒绝效率和便利,而追求自己做事的满足感”,无论是做饭、导航、表演音乐、写作、运动还是其他任何事情。

此外,他预计任何AI工具的显著增长将相应地伴随着一种“科技瘦身”技术的发展,比如目前可以在Google Pixels或iPhone等智能手机上发现的数字化健康、请勿干扰功能,帮助用户管理他们使用智能设备的时间。

他解释说:“在过去的原始社会,人们很少会面临摄入过多卡路里或缺乏锻炼的危险。这些危险在今日的富裕社会中非常真实,于是人们通过注意饮食和锻炼来缓解压力。”

“充满人工智能的未来也将对我们的幸福构成不同的威胁。我们需要在个人和社会两方面努力减轻这些威胁,充分发挥我们的人性。”

与此同时,还必须有意识地努力构建“正确”的基于AI的工具。

奥斯陆大学的Ess教授表示,人工智能技术不应该被动地引导我们去选择其算法确定的我们会喜欢的“最佳”选项,而是应该设计成在更深层次上对人类最有利的方式。

他表示:“为了对抗这些危险,有必要从一开始就将伦理道德融入人工智能的设计过程。”

更具体地说,克莱姆森大学(Clemson university)以人为中心的计算学助理教授巴特•克尼宁伯格(Bart knijnenburg)认为,人工智能的设计不应该仅仅是向人们推荐东西,还应该鼓励他们自己进行实验和选择,以及尝试超出自己舒适区以外的东西。

“我认为我们使用AI应该尽量不仅为了获得推荐,也为了探索未知。”他说。例如,可以向用户显示算法非常不确定的项目,或者认为用户通常不会喜欢的项目,而不是它认为“最好的”项目。

这样的提议离真正实现还有很长距离,但如果人工智能真的渗透进了我们所有的线上和线下活动,这可能会是人类必须要走的一条道路。

这并不是否定人工智能的发展所带来的益处。就像几乎每一项技术创新一样,它也会有缺点和风险,需要我们关注和权衡,维护身为人类的能动性、自主权和“人性”。

这些,正是我们赖以自诩“万物之灵”的所在。

相关深度报告 REPORTS

2025-2030年中国人工智能行业发展前景预测与投资战略规划分析报告
2025-2030年中国人工智能行业发展前景预测与投资战略规划分析报告

本报告前瞻性、适时性地对人工智能行业的发展背景、供需情况、市场规模、竞争格局等行业现状进行分析,并结合多年来人工智能行业发展轨迹及实践经验,对人工智能行业未来...

查看详情

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p36 q0 我要投稿

分享:

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J