任何阅读科幻小说的人都可以告诉你杀手机器人是一个问题。电气和电子工程师协会,更像是IEEE,想要做一些事情。
周二,IEEE在人工智能和自治系统中的道德考虑因素的全球倡议发布了一份旨在鼓励工程师和研究人员的报告,以便在他们建立新的智能软件和硬件时思考道德。
该报告,标题为“道德对齐的设计”,旨在将人类的照顾导致人工智能的创造。它的时钟长度超过一百页,但报告中有一些关键主题。它呼吁更多透明度关于自动化系统如何工作,增加人类参与,并关心系统设计的后果。
随着公司和政府越来越多地利用该技术,人工智能和自动化系统中的道德考虑将变得越来越重要。虽然很多流行文化讨论围绕着令人难以置信的智能系统,但是今天已经使用了已经使用的算法,这可能会对业务和政治决策产生重大影响。
倡议主席Raja Chatila在接受采访时表示,他没有认为工程师和公司都知道在戏剧中的问题。
“我认为 - 这是我的个人观点 - 大多数工程师和公司都尚未真正意识到这些道德问题,”他说。“这是因为他们没有那样训练。他们受过培训,开发有效的系统,他们无法考虑道德问题。“
已经出现的关键问题之一是算法偏见。计算机系统可以并确实反映了他们创造者的世界观,这可能成为这些价值观与客户不匹配的问题。
谈到透明度时,报告一再呼吁创建可以报告他们为什么进行特定决策的自动化系统。这与今天使用的一些最先进的机器学习技术难以做。
更重要的是,公司将其机器学习算法的内部工作确切细节保持内部工作的确切细节并不少见,这在面对透明度的推动中也苍蝇。
透明度是关键,不仅是理解图像识别算法,而且是我们如何与战争的未来。IEEE报告对自主武器系统的讨论充满了平静但可怕的语言,如有效的匿名死亡机构,导致“不负责任的暴力和社会损害”。
对于类似的结束,报告推动了更大的人类参与这些智能系统。IEEE集团希望人们能够在自治系统做出决定的情况下对另一个人吸引。
未来,这项工作应导致伦理和智能系统周围的IEEE标准的创建。解决系统设计中的道德问题的一个这样的标准已经在作品中,并且在途中还有两个。
但即使这个过程导致建立标准,组织仍然必须选择采用它们。这可能是伦理系统的创造将被视为营销差异化因素 - 一个机器人,谋杀别人的可能性不太可能会更加吸引客户。
技术产业也可能只是回避道德问题,并继续以其快乐的方式继续。
IEEE团队现在正在向公共[PDF]的反馈打开文件。任何人都可以提交关于其内容的想法,尽管小组正在寻找少于两页的参考,可操作的反馈。提交的提交将于3月6日到期。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。