人工智能领域可能需要一些反思...
如果您要求技术世界放慢脚步,那您马上就会被冠以技术恐惧症的烙印。但据Telecoms.com(银行技术公司的姊妹出版物)报道,在人工智能(AI)领域可能需要反思。
Google的Deepmind就是其中一种,它正在开始思考庞大而迅速发展的计算机智能世界。该小组宣布成立DeepMind伦理与社会,以“补充”其工程师和科学家的工作,并确保我们不会超越自己。
通常,这种对话仅限于评论板和阴谋网站,但业界确实需要仔细研究该技术的发展是否继续为我们服务。这将是DeepMind道德与社会团队的主要目标;确保技术的道德和社会影响对整个社会都有利。
“人工智能的发展带来了重要而复杂的问题。该团队在宣布这一倡议的博客中说:“它对社会以及对我们整个生命的影响都是不可错过的。”
“从一开始就必须积极争取并建立有益的成果和防止伤害的措施。但是在像AI这样复杂的领域,这说起来容易做起来难。”
没有人想限制AI先驱者的创新和想象力,但是除非遵守规则和结构,否则危险可能是巨大的。Facebook的人为错误已经证明了这一点。由于对管理AI应用程序所创建规则的轻微监督,该程序决定发明自己的语言。如果能够做到这一点,还希望这项功能强大的技术还能做到吗?
在此示例中,这是一个无辜的错误,发生在受控的实验室环境中。没有任何损坏,但是它显示了如果不牢记创建应用程序的结构会发生什么。尝试新技术可能会很有趣,而且会带来巨大的回报,但是必须牢记并管理总体目标。这是一项必须造福社会的技术。
“在DeepMind,我们从所有AI应用程序应保持在有意义的人类控制之下的前提出发,并应将其用于社会公益目的。要了解在实践中的含义,就需要对我们面临的最敏感挑战进行严格的科学探究。”
听起来很厄运,也很沮丧。我们正在谈论的是,如果在制定这些计划时不考虑人类道德和原则,那么将会带来一些非常严重的影响。为了保持团队的控制权,牛津大学人类未来研究所所长和战略人工智能研究中心主任尼克·博斯特罗姆教授被选为研究员。
Bostrom对AI的发展持淡淡的看法,并撰写了许多书,概述了如果不正确实施该技术可能带来的危险。去年我们有机会在IP Expo上看到他的主题演讲,他在演讲中概述了控制一种技术的困难,该技术有可能在很短的时间内超过我们的智能。您可以看到为什么有些人对这些主题有些偏执。
因此,这就是DeepMind Ethics&Society将适合的地方。它将创建研究和模板以帮助AI的发展,期待某些应用程序的实施将如何影响社会,以及可以做些什么来为我们为适应变化而做准备。浪潮。
这是一个很大的问题,但是我们已经看到,将困难的问题排到一边会发生什么。安全始终被忽视,而每周查看有多少数据泄露发生。AI不会发生同样的事情
“如果人工智能技术要为社会服务,那么它们必须受到社会的优先考虑和关注。这并不是要寻求封闭的解决方案,而是要仔细审查并帮助设计针对AI技术未来影响的集体应对措施。”
“随着DeepMind道德与社会的创立,我们希望挑战包括我们自己在内的假设,并为真正有益和负责任的AI铺平道路。”
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。