近日,包括世界著名物理学家斯蒂芬.霍金,特斯拉CEO埃隆.马斯克在内的众多科学家、企业家和投资人联名签署了一份关于人工智能的公开信,再次对人工智能的研究和发展提出了顾虑。
公开信中的核心内容是:人工智能必须确保能够按照人的意志工作。这透露出世界名人们对于人工智能未来发展的担忧,埃隆.马斯克甚至警告称,人工智能比核武器都要可怕。
不过,显然有另外一些人,认为这群世界名人是在杞人忧天,并企图用自己的行动证明他们是在危言耸听,Google公司就是这种行动的先行者。谷歌在2014年初以5亿美元的身价收购了著名的人工智能公司DeepMind Technologies,并研究出了最新的人工智能AI。在通过“DQN”系统学习了49款经典网络游戏的规则之后,人工智能AI与人类大脑进行了对抗,人工智能在其中29款游戏中的成绩远超人类。不过,谷歌高管认为,这次试验并不能说明什么,毕竟他们研发的人工智能被限定在游戏的“笼子”里,对外界产生不了太大的影响。
前瞻小编认为,关于人工智能,任何一件事情都不可以麻痹大意,毕竟,人类的意志才是这个世界的主导。人工智能在技术方面获得任何的突破,都有可能成为创造了它们的人类安全的重大威胁。
人工智能高度发展 有可能会影响人类地位
就像许多科幻片中描述的那样,当人工智能持续发展到一个很高的水平时,一着不慎,就可能造成威胁人类地位的事情。
究其原因,是因为人工智能的复制功能。复制功能保证了人工智能可以完美的学习到人类的文化知识,更全面的为我们人类服务,却注定不能复制人类的情感。一具丧失情感的机器,只能按照内置的程序规则来行动,很容易跟具有充沛情感常走感性路线的人类发生冲突。
这种可能存在的冲突几乎不能解决,随着科技的发展,整个社会一旦陷入人工智能与人类对抗的僵局,就会成为人类文明崩塌的导火索。
人工智能太方便 阻碍人类发展历程
这个世界上,任何事情都具有两面性。人工智能能给人类带来更为方面快捷的生活,这是它最大的用处。不过,这种方便快捷是以牺牲人类自身的动手能力作为代价的。
孟子曰:“生于忧患死于安乐”,用在人工智能服务于人类的身上,很是恰当。根据物竞天择的规律,当人类的各项事情都需要机器来解决的时候,人类的机体在长期缺乏劳动锻炼之后,就会出现逐步的衰退,最终导致人类发展历程的中断。
人工智能不安全 漏洞太多防不胜防
众所周知,人工智能都是人为设定的系统程序控制的,程序相当于人工智能的大脑。可是程序都是人为设定的,只要是人为设定的东西,都不是完全稳定的。相同或者更高程序水平的其他人类很容易找到控制人工智能的系统的漏洞,某些居心叵测的人就会以此做出一些违法的事情。
漏洞太多,注定了人工智能不会太安全,而人工智能是贴身为人类服务的,系统一旦出现问题,就会直接威胁到人类的人身安全。
另外,人工智能出问题比较容易,但出了问题的解决却格外的麻烦。控制人工智能的系统都是比较繁琐的程序,出问题之后的排查就会花费大量的时间,更不用说后续的善后工作了。
从上面的三大隐患中,我们可以看到,人工智能虽然被一些科技人士看好,但却存在着很大的风险。随着科学技术的进步,人类的发展注定绕不开人工智能的服务,人类的技术也会尽量保证人工智能是可以信赖的伙伴,但信赖不是无条件的偏信,人类的意志才是主导这个社会的唯一元素。
品牌、内容合作请点这里:寻求合作 ››
想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:
下载APP
关注微信号
扫一扫下载APP
与资深行业研究员/经济学家互动交流让您成为更懂趋势的人
违法和不良信息举报电话:400-068-7188 举报邮箱:service@qianzhan.com 在线反馈/投诉 中国互联网联合辟谣平台
Copyright © 1998-2024 深圳前瞻资讯股份有限公司 All rights reserved. 粤ICP备11021828号-2 增值电信业务经营许可证:粤B2-20130734