今年1月下旬,法国政府宣布它将开始将人工智能(AI)的战略汇集在一起。对于拥有丰富数学家和科学家的国家,这是一个潜在的许多基本技巧,这似乎很晚。
该国相对缓慢的采用采用部分是公众混乱的结果,部分原因是法国人对AI周围伦理辩论的方式。法国精神科医生和L'AcadémieStemencologies的成员,Serge Tisson认为,如果公众对AI更准确地了解,则会有所帮助。
撰写关于主题的书籍的Tisseron,Le JourOùMon Robot M'aimera- Vers L'Empathie Aftificielle说:“人们认为AI系统与人类思维一样强大。我们谈论人工同情,神经网络和自主机器 - 所有对人类特征的引用。这种对拟人的趋势误导了公众。现在欧洲议会甚至谈论电子人。“
实际上,授予AI系统的决议草案,即欧盟议会正在考虑“电子人民”的法律地位。理解机器的原因之一是法律地位的原因是,他们可能会被计算并分配给人主,然后可以纳税,并对他或她的网络财产的行动负责。
但税收和责任只是要解决的两个问题。辩论还延伸到如何增加对AI系统的依赖可能影响我们与世界互动的方式。例如,Tisseron表示法国人希望看到他们与机器人交谈。他们想知道他们在互联网上与AI系统聊天。他们还希望选择与一个人沟通。
Gartner Research Clyrank Buytendijk专门从事数字伦理,提供了不同的观点。他争辩说,使机器人尽可能成为人类的机器人。“这将通过向计算机系统推动更加文明和关怀行为来帮助我们。如果我们整天都冷静地对机器人说话,我们将如何在晚上和孩子们谈谈?“
法国讨论了AI伦理周围的一些更广泛的问题,但它们对AI的某些特定后果也特别敏感。“虽然所有国家的人都害怕失去对人工智能的工作,但法国人不认为他们会找到另一份工作。法国人并不动感。美国人是,“Tisseron说。
但是Buytendijk从全世界的角度看待AI道德,并不是那么担心失业。“当我们远离农业时,我们已经经历了类似的过渡。”
对法国朝着人工智能危险的方法对核能的方法进行了鲜明对比。法国人拥抱核能比世界上任何其他国家都多,他们已经用相对较少的公众辩论做了,以减缓它们。
但是,当涉及AI的伦理时,法国倾向于将广泛的球员们在长期的辩论上,就智能机器掌握和失去了什么。在与谷歌,Facebook,亚马逊,IBM和微软组成的最近组成的伙伴关系鲜明对比,探讨AI周围的伦理最佳实践,法国选择通过包括哲学家,神学家,精神科医生和其他人在社会正义中获得更广泛的讨论而不是利润和世界统治。
“让这些大公司控制围绕艾的伦理讨论就像让汽车制造商控制汽车安全和反污染措施的决策过程一样,”Tisseron说。“我们试图坚持在法国的原则是你不能成为一个主要的球员以及法官。”
一些国家的另一个基本问题是AI系统需要访问可能被视为私人的数据。机器学习需要大量信息。但这需要访问欧洲数据隐私问题的数据冲突,特别是在法国,其中数据隐私于1978年一直返回。
它不仅需要大量数据,而且还需要花费大量时间来实现它。以例如,Tay案例。微软的Twitter Bot旨在从其他人民的推文中学到,然后生成自己的消息。黑客不需要很长时间,他们可以养活Tay种族主义和性别歧视的推文,以获得自己的令人反感的信息。
这一事件对微软令人尴尬,他立即将系统置于下来,但BuyTendijk鼓掌微软进行实验。“毕竟,”他说,“没有人受伤,我们都从中学到了。在这种情况下,我们都非常迅速地说出来了出错。当结果不太明显时,损坏可能更大。麻烦是,当数据不好时,我们可能不知道。“
当所有人都说和完成时,很少有发达国家更关注AI的危险而不是法国人。2016年由Microsoft和Odoxa进行的2016年调查融资表明,一半的法国人口彻头彻尾地害怕人工智能。一个国家有可能对信息技术的最新革命做出巨大贡献,通过犹豫不决冻结 - 因此,可能错过了许多好处。
Tisseron表示,法国应该做两件事,以便于引入AI。第一个是对虚假广告的立法 - 领导人们相信AI系统的广告具有情感,是自主的。“暗示机器人的广告有情绪导致人们忘记机器人只是由软件工程师编程的机器,”他说。“AI系统不是自主的。他们运行一组算法,他们旨在运行,就是这样。“
“第二件事做,”Tisseron说:“教育孩子们都是美妙和危险的。我们没有这样做核能。我们接受了核能,全面停止。但对于AI而言,我们应该谈论巨大的利益和严重危险。我们的孩子需要了解这种复杂的思考,关于巨大福利和严重危险的共存。“
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。