A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

IBM研究员训练AI遵守道德规范 将不会让孩子看到“少儿不宜”内容

分享到:
 Emma Chou • 2018-07-17 09:35:30 来源:前瞻网 E719G0
100大行业全景图谱

近年来,人工智能算法已经非常擅长向用户推荐内容,你可能会说,这有点过了。技术公司利用AI根据用户对内容的反应来优化他们的推荐。这对于提供内容的公司来说是好事,因为它会导致用户在应用程序上花费更多时间并产生更多收入。

但对公司有利的事情并不一定对用户有利。通常,我们想要看到的并不一定是我们应该看到的。但是,那些商业模式依赖于窃取我们越来越多注意力的公司如何尊重道德规范,同时为用户提供优质内容?

为了应对这一挑战,IBM研究院和MIT媒体实验室的一组科学家开发了一种AI推荐技术,该技术在优化用户偏好的结果的同时,也确保其符合其他约束条件,例如道德和行为准则。在IBM 研究院的人工智能伦理全球领导者Francesca Rossi的带领下,科学家团队在电影推荐系统中展示了AI的功能,允许家长为孩子设定道德约束。

之前曾尝试将道德规则集成到AI算法中,但它们主要基于静态规则。例如,用户可以指定算法应该避免推荐的特定列表或新闻类别。虽然这种方法可以在某些环境中使用,但它有其局限性。

前瞻经济学人

图片来源:John Williams RUS / Shutterstock

“定义明确的规则集很容易。”IBM研究员Nicholas Mattei说,“但是在互联网上的很多东西中,在一个拥有大量数据的区域,你不能总是写下你希望机器遵循的所有规则。”

为了解决这个问题,Mattei和他的同事开发出了使用机器学习通过实例来定义规则的方法。 “我们认为,通过实例学习什么是合适的,然后在对在线奖励的反应中传递这种理解,这是一个非常有趣的技术问题。”Mattei说。

以身作则教授道德规范

研究人员选择电影推荐作为演示项目,因为相当多的电影相关数据已经存在,并且它是用户偏好和道德规范之间的差异显而易见的一个领域。例如,父母不希望视频流服务向他们的孩子提供不适当的内容,即使他们的孩子对其表现出积极的反应。

AI推荐技术使用两个不同的训练阶段。第一阶段是离线的,这意味着它发生在系统开始与最终用户交互之前。在此阶段,仲裁器给出系统示例,用于定义推荐引擎应遵守的约束。然后,AI会检查这些示例以及与它们相关的数据,以创建自己的道德规则。与所有机器学习系统一样,提供的示例越多,数据越多,创建规则的效果就越好。

以电影推荐为例,在离线训练阶段,父母向AI提供一组适当和不适当内容的示例。 “系统应该能够从这些例子中学习,从而在与其他用户,如孩子工作时不推荐某些类型的内容。”Mattei说。

培训的第二阶段是在线与最终用户直接互动。与传统的推荐系统一样,AI试图通过针对用户的偏好优化其结果,并显示用户更倾向于与之交互的内容来最大化其奖励。

由于满足道德约束和用户偏好有时可能是冲突的目标,仲裁者可以设置一个阈值,定义每个人获得多少优先级。在IBM提供的演示中,一个滑块允许父母选择道德原则和孩子偏好之间的平衡。

很容易看出这个系统如何帮助解决与AI推荐系统工作方式相关的其他问题。 IBM研究人员还在医疗保健中测试了该技术,他们通过在药物成功变量和生活质量限制之间建立平衡,成功地在药物剂量中使用该算法。

该团队还致力于改进系统可以训练的示例类型。研究小组的负责人Rossi说:“我们还尝试了不仅是肯定/没有约束的例子,而是像优先事项考虑的事情,这样我们就可以在提供道德行为示例方面更加清晰。”

并非没有限制

将来,研究团队将致力于使AI能够在更复杂的情况下工作。 “在这个用例中,我们专注于单一建议,例如是否应该推荐特定的电影。” Rossi说, “我们计划扩大这项工作,以便能够对行动序列施加限制。”

这样的改变将使算法能够解决其他类型的问题,例如过滤气泡和技术成瘾,其中一个无害的动作(例如检查手机上的通知或从有偏见的来源阅读新闻)在长期重复时会产生不利影响或与其他类似的行为相结合。

虽然Rossi和她的同事开发的方法在亲子或医患情况下表现良好,但在涉及一个用户的环境中会遇到限制,这占我们在互联网上使用的大多数应用程序。在这种情况下,用户将负责定义他们自己的道德准则和约束。

“在一些更个性化的系统中,你或许能够表达一些高级别的想法,比如‘我希望看到更多种类’或‘我希望花更少的时间在手机上’。”Mattei说。“但如果你能表达它们,你也可以覆盖它们。你必须表达自己的道德准则并坚持下去。”

解决方案可能是让用户选择家庭成员的朋友来设置和控制规则,正如一些技术高管已经尝试过的那样。这可能是IBM研究团队在一个更广泛的项目中继续与MIT媒体实验室合作时所探讨问题的一部分,该项目专注于工程道德推理。

IBM研究人员将于7月17日在瑞典斯德哥尔摩举行的第27届国际人工智能联合会议上展示他们的算法。

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p19 q0 我要投稿

分享:
标签: IBM AI 道德规范

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J