为何AI会这样做?因为没有明确告诉不要。
据Telecoms.com(Banking Technology的姊妹出版物)报道,在Facebook发明了自己的语言之后不得不关闭其程序之一之后,人工智能(AI)的批评者得到了更多的弹药。
虽然AI在不久的将来崛起并占领世界并不现实,但不负责任地开发该技术的后果是巨大的。Fact Co.Design表示,Facebook研究人员必须停止自己的AI程序之一,因为它停止使用英语并开始以自己的语言进行交流,这是开发人员最初无法理解的。
为什么要这样做呢?因为没有明确告诉不要。
将AI想象成一个小孩。孩子不知道什么是对的,什么是错的,因此您必须为可以做什么和不能做什么设定严格的参数。如果您不这样做,谁知道这个小孩可能造成什么混乱。
人工智能也可以这样说。除非明确告知,否则该程序不知道是非。从不适当中将不知道适当。或在某些情况下,合法不合法。这就是为什么必须设置严格的参数的原因,因为如果这是目标,则机器将找到最有效和合乎逻辑的方法来完成任务。
在这种情况下,程序员没有正确设置参数。他们没有告诉机器仅使用英语,因此它只是做了自己的事情。这听起来有点可笑,有点像发现您的孩子撕毁了所有厕纸,但风险却非常大。
人工智能程序被教导为自我教学。这是非常有效的,并且对世界具有广阔的前景,但是需要加以控制。如果您想独自留下一个AI而不担心它,那么您需要知道它不会开始用蜡笔在墙上绘制不合适的东西。
首先,如果您无法理解机器在说什么,那么如何确保机器采用的方法和实践是正确的。其次,如果它将构成自己的语言,它将完成任务吗?
尽管这个故事由于我们正在谈论的是Facebook而引起了人们的关注,但这并不是一个新的思想领域。这只是一个被忽略的原因,因为,老实说,答案并不容易找到。像网络安全一样,由于没有立即得到满足,因此已将其降级为优先级列表。毕竟我们是人类。
去年,在IP Expo上,领导牛津大学人类未来研究所的Nick Bostrom向技术界发出了警告。当他们自己的情报取代我们自己的情报时,我们如何控制计算机?这样的技术进步是前所未有的,但是我们如何确保发展继续将人类目标作为任务的核心呢?我们如何停止计算机重写它自己的目标,指令和参数,因为它认为其他领域更值得?这是一个非常复杂的区域。
最近,特斯拉首席执行官埃隆·马斯克(Elon Musk)与Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)发生了公开争吵,此前马斯克(Musk)冒犯了扎克伯格的评论。马斯克警告说,人工智能的发展太快了,而扎克伯格说人们应该更加乐观。特斯拉首席执行官的观点是,监管必须到位,因为这是一个非常强大的发展,可能会令人吃惊或灾难性。扎克伯格说,别再成为嗡嗡声了。
考虑到这一发展,您可以对Musk有所帮助。
问题在于,许多AI开发人员遇到的挑战有时将是第一次遇到这些挑战。不幸的是,您不知道自己犯了一个错误。这个例子是个错误。其中一名程序员忘记了必须使用英语作为条件的条件,但幸运的是,错误是在受控环境中发生的。但这应该是一个警告。
人工智能最终将越来越多地进入现实世界(尽管存在的局限性)。它将控制关键业务应用程序。它将涉及我们生活中最复杂的部分。这样的错误需要彻底消除,必须非常严格地设置参数,否则谁知道会发生什么混乱。
2017年银行技术奖现已开放报名!
知道今年有什么值得特别表彰的创新产品,鼓舞人心的项目,熟练的团队或有远见的领导者吗?提名他们获得银行技术奖!
提交提名的截止日期为2017年8月25日。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。