有些人担心有一天有一个机器人 - 或者是机器人的集体 - 将打开人类和身体伤害或贴上我们。
他们说,这个问题是机器人如何教授道德?
没有用户手册良好的行为。还是在那里?
佐治亚州理工学院的研究人员称,虽然可能没有一个特定的手册,但是通过阅读故事和书籍有关在社会中采取行动的成功方式的书籍,机器人可能会受益。
“不同文化的故事教导儿童如何在寓言,小说和其他文献中的适当和不当行为的例子中表现出社会可接受的方式,”格鲁吉亚科技互动计算学院副教授Mark Riedl表示,“Mark Riedl表示娱乐智能实验室主任,在一份声明中。“我们相信机器人的故事理解可以消除精神病出现的行为和加强赢得伤害人类的选择,仍然实现预期目的。”
去年,着名的物理学家斯蒂芬霍金说,未来的机器人可能是危险的,并且可以在100年内超越人类。他说,未来的机器人需要设计,以便他们的目标与我们的目标保持一致。
霍金,2014年,还警告说,人工智能的进步可能会结束人类。大约在同一时间,高科技企业家Elon Musk表示,A.I的发展表示。对人性有危险。
一些计算机科学家和机器人并没有完全不同意麝香,但是未来的智力水平的机器人甚远。
让机器人领先的部分努力成为人类的危险,就像在人类社会中教授那样教导他们。
正如父母阅读他们的孩子睡前故事,机器人可能会给机器人自己的阅读,从错误中学习。
Riedl注意到机器人不仅可以学习人类价值观,而且可以了解可接受的事件序列,例如如果有人执行一件事,那么机器人应该以这种方式响应。
例如,人类可能会告诉机器人助手去药房并尽快带来处方。
机器人可以p,以便获得处方的最快方式是抢劫药房,以所需的药物和跑步。然而,通过阅读故事和学习适当的人类行为,机器人将表示去药房,等待在回家的路上不行。
RIEDL表示,这种教授道德的方法将与具有有限目的的机器一起使用,但需要与人们互动以实现其目标。
研究人员还表示,这个想法是朝着机器中一般道德推理的第一步。
“我们相信A.I.必须被遗留到采用特定社会的价值观,并且在这样做,它将努力避免不可接受的行为,”RIEDL表示。“为机器人提供阅读和理解我们的故事的能力可能是在没有人类用户手册的情况下最有利的手段。”
RIEDL的研究是由DARPA(国防高级研究项目)和海军研究办公室资助的。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。