欧盟准备禁止用于大规模监视或社会行为排名的人工智能系统,而开发AI的公司如果不遵守管理软件应用程序的新规则,将面临高达全球收入4%的罚款。
根据彭博社获得的提案草案,这些规则是欧盟执行机构欧洲委员会将提议的立法的一部分。在委员会宣布这项措施之前,细节可能会有所变化,预计最快将在下周公布。
欧盟提案预计将包括以下规则:
欧盟将禁止用于操纵人类行为,利用有关个人或个人群体的信息,用于进行社会评分或不加区分的监视的AI系统。一些公共安全例外将适用。
在公共场所使用的远程生物识别系统(例如面部识别)将需要获得当局的特别授权。
被认为是“高风险”的AI应用程序必须在部署之前进行检查,以确保以可追溯的方式并在人工监督下对系统进行无偏数据集的培训。
高风险的AI将涉及可能危害人们安全,生命或基本权利的系统,以及涉及欧盟的民主进程的系统,例如无人驾驶汽车和远程手术等。
一些公司将被允许自己进行评估,而另一些公司将受到第三方的检查。评估机构颁发的合规证书有效期最长为五年。
规则将同样适用于位于欧盟或国外的公司。
根据该文件,将要求欧洲成员国任命评估机构对系统进行测试,认证和检查。开发禁止的AI服务,提供不正确的信息或未能与国家主管部门合作的公司可能会被处以最高全球收入的4%的罚款。
该文件称,这些规则不适用于专门用于军事目的的人工智能系统。
欧盟发言人拒绝对拟议的规则发表评论。Politico早些时候对文件草案进行了报告。
随着人工智能开始渗透到社会的各个方面,从购物建议和语音助手到有关雇用,保险和执法的决策,欧盟希望确保在欧洲部署的技术透明,具有人为监督并满足用户的高标准隐私。
拟议的规则出台之际,欧盟试图在人工智能和其他先进技术的推出方面赶上美国和中国。如果新要求由于必须首先经过测试而推迟推出产品,那么新要求可能会阻止该地区的技术公司与外国竞争对手竞争。
欧盟委员会一旦提出建议,在成为法律之前,这些规则仍可能会根据欧洲议会和欧盟成员国的意见进行修改。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。