A前瞻官网
前瞻网
a 当前位置: 前瞻网 » 资讯 » 产经

AI在网络安全方面备受追捧 但仍需警惕机器学习产生的虚假安全感

分享到:
 Emma Chou • 2018-08-13 15:50:42 来源:前瞻网 E972G0
100大行业全景图谱

前瞻经济学人

上周在拉斯维加斯举行的大型黑帽网络安全会议上,当你走遍展览厅时,就会惊讶于众多公司吹嘘自己如何利用机器学习和人工智能来帮助世界变得更加安全。

但一些专家担心,供应商对依赖这些技术的风险并未给予足够的重视。 “正在发生的事情有点令人担忧,在某些情况下甚至是危险的。”安全公司Forcepoint的Raffael Marty警告说。

安全行业对算法的渴望是可以理解的。随着连接到互联网的设备数量激增,它正面临着网络攻击的海啸。与此同时,熟练的网络工作者大量短缺。

使用机器学习和AI来帮助自动化威胁检测和应对可以减轻员工的负担,并且可能比其他软件驱动的方法更有效地帮助识别威胁。

数据危险

但Marty和其他一些人在黑帽会议上发表讲话说,现在很多公司正在推出基于机器学习的产品,因为他们觉得必须为了吸引那些已经进入AI炒作周期的客户。而且他们有可能忽视机器学习算法会产生虚假安全感的方式。

正在推出的许多产品涉及“监督学习”,这要求公司选择并标记算法训练的数据集,例如,通过标记恶意软件的代码和安全代码。

Marty说,一个风险就是急于将产品推向市场,公司使用的培训信息尚未彻底清除异常数据点。这可能导致算法遗漏一些攻击。另一个是,访问安全公司系统的黑客可能会通过切换标签来破坏数据,以便将一些恶意软件示例标记为安全代码。

坏人甚至不需要篡改数据;相反,他们可以计算出模型用于标记恶意软件的代码功能,然后将这些功能从他们自己的恶意代码中删除,这样算法就无法捕获它。

在大会的一次讨论,微软的Holly Stewart和Jugal Parikh标志着过度依赖单一主算法驱动安全系统的风险。危险在于,如果该算法受到损害,则没有其他信号可以标记它的问题。

为了防范这种情况,微软的Windows Defender威胁防护服务使用了多种算法,这些算法具有不同的训练数据集和功能。因此,如果一个算法被黑客入侵,其他算法的结果 —— 假设它们的完整性也没有受到损害 —— 将凸显出第一个模型中的异常。

除了这些问题。 Forcepoint的Marty指出,使用一些非常复杂的算法,很难弄清楚为什么它们实际会给出某些答案。这种“可解释性”问题可能使得很难评估是什么驱动了任何异常现象。

但这些都不意味着人工智能和机器学习不应该在防御性武器库中发挥重要作用。来自Marty和其他人的信息是,对于安全公司及其客户来说,监控和最小化与算法模型相关的风险非常重要。

这是一个不小的挑战,因为拥有网络安全和数据科学方面的深厚专业知识的人们,仍然像拉斯维加斯夏季拥有凉爽日子一样罕见。

本文来源前瞻网,转载请注明来源。本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-33069875 或 hezuo@qianzhan.com

p18 q0 我要投稿

分享:

品牌、内容合作请点这里:寻求合作 ››

前瞻经济学人微信二维码

前瞻经济学人

专注于中国各行业市场分析、未来发展趋势等。扫一扫立即关注。

前瞻产业研究院微信二维码

前瞻产业研究院

如何抓准行业的下一个风口?未来5年10年行业趋势如何把握?扫一扫立即关注。

前瞻经济学人 让您成为更懂趋势的人

想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:

  • 10000+ 行业干货 免费领取
  • 500+ 行业研究员 解答你的问题
  • 1000000+ 行业数据 任君使用
  • 365+ 每日全球财经大事 一手掌握
  • 下载APP

  • 关注微信号

前瞻数据库
企查猫
前瞻经济学人App二维码

扫一扫下载APP

与资深行业研究员/经济学家互动交流让您成为更懂趋势的人

下载APP
前瞻经济学人APP

下载前瞻经济学人APP

关注我们
前瞻经济秀人微信号

扫一扫关注我们

我要投稿

×
J