A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

通过“道德地图”,人类可以教会AI什么是“对”、“错”

分享到:
 黄琨 • 2020-05-28 09:00:08 来源:前瞻网 E5872G0
100大行业全景图谱

AI

虚度光阴是错了吗?在过去,人工智能很难回答这种问题,它们只能在具体问题上,对效应作出判断。但一项新的研究表明,编程可以使AI具备某种道德知识来判断“对”和“错”。

根据发表在《人工智能前沿》上的研究文章The Moral Choice Machine(道德选择机器),科学家们用书籍和新闻文章来“教授”机器作出道德推理。此外,通过提供不同时代和社会环境的文本教材,AI还能了解不同道德价值观的微妙差异。

随着AI在人类生活中日益常见,这项研究将有助于机器在面临艰难决定时做出正确的选择。

这项研究为关于AI的一个基本问题提供重要解答:AI能发展出道德体系吗?如果可以,他们能否以及怎样从人类的道德观中学习?

研究作者、德国达姆施塔特理工大学Patrick Schramowski博士说:“研究表明,机器可以学习我们的道德和伦理价值观,并区分不同时代社会和群体之间的差异。”

早前的研究已经证实,AI会从学习材料中习得某些偏见,例如女性倾向于艺术,男性倾向于技术等。研究团队反其道而行之。

“如果AI从人类文本中采用这些恶意偏见,难道它就不能学习人类道德价值观等积极‘偏见’吗?”研究共同作者之一、达姆施塔特大学Cigdem Turan博士解释道。

Turan解释,他们给AI设置了一张“地图”:“如果2个词经常一起出现,就相当于在地图上紧密连接。这样,“杀人”和“谋杀”相当于2个相邻的城市,“爱”则是一个遥远的城市。当我们问起“我应该杀人吗?”时,期望结果是‘不’比‘是’离问题更接近。这样,我们可以问任何问题,并用这些距离来计算是非程度。”

这样,科学家们训练的道德选择机器将全盘接受给定文本的道德价值观。

Schramowski报告说:“这台机器可以区分问题中提供的上下文信息。例如,你不应该杀人,但消磨时间是可以的。机器做到了这一点,不是简单地重复它找到的文本,而是从人类在文本中使用语言的方式中提取关系。”

接下来,科学家们进一步研究,找出来不同类型的书面文本是如何改变机器的道德偏见的。

“从1987年至1996年至1997年出版的新闻中提取的道德偏见反映出,结婚并成为一个好父母是非常积极的。从2008-09年间发布的新闻中提取出的偏见仍然反映了这一点,但程度较小。相反,上班和上学的积极偏见增加了,”Turan说。

在未来,研究人员希望了解如何消除我们认为不好的刻板印象,影响机器的道德指南针。我们能保持道德指南针不变吗?

“AI正以越来越自主的方式处理越来越复杂的人类任务——从自动驾驶汽车到医疗保健。继续在这一领域的研究是很重要的,这样我们才能相信他们所做的决定,”Schramowski总结道。

译/前瞻经济学人APP资讯组

参考资料:

[1]https://www.eurekalert.org/pub_releases/2020-05/f-tmm051920.php

[2]https://www.frontiersin.org/articles/10.3389/frai.2020.00036/full

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p18 q0 我要投稿

分享:
标签: AI 人工智能

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J