随着人工智能(AI)的热情(AI)收集在澳大利亚的步伐,该国的首席科学家令人谨慎令人谨慎,并要求更多地监管AI。
“我们需要的是一定的标准和明确的信号,所以我们唯一需要专家知识来制定道德选择,使公司从一开始就如何表现出他们的AI,”Alan Finkel在A澳大利亚经济发展委员会最近的地址。
根据Finkel的提议,公司将为他们的AI提供信任,称为图灵证书。
独立审计师将通过明确和明确的预期认证AI开发人员的产品,业务流程及其持续的遵守情况。
虽然Finkel目前提出了一项自愿计划,但他还建议政府通过授权证书遵守作为其采购规则的一部分。
“政府机构已经将AI建立在员工招募。其他人正在探索其在决策和服务交付中的潜力。这些合同可能对提供这些能力的公司非常有价值。所以想象一下,如果政府要求一个图灵邮票,“他说。
他没有详细介绍一个图灵证书可能测试的东西,或者如何管理。然而,存在某些形式的控制需要越来越多的验收。
澳大利亚的伦理中心目前正在进行一个可以应用于任何技术开发的道德框架,包括AI。它希望在今年晚些时候发布讨论框架。
Kriti Sharma,Bots of Sage的副总裁,以及悉尼生动节的演讲者,同意,伦理需要从头开始建立在AI解决方案中。她表示,通过确保通过丰富和包容性的数据集推动机器学习,偏差是至关重要的。
“通常是AI的道德是一个事后的伦理。一旦你建立了AI系统,稍后修复它就会更加努力,因为AI自己学习 - 您需要在算法中具有正确的设计和原则,“她说。
作为一个非白人女性,Sharma表示她经历过艾迪偏见,特别是在面部识别系统中。
偏见的证据是在提交政府拟议的认同匹配条例草案的情况下提供的,这将看到内政部大量使用面部认可。
澳大利亚的人权法中心提交了2018年的2018年研究,发现“较暗皮肤”妇女的错误识别率为34.7%,而“较轻皮肤”男性为0.8%。
根据澳大利亚商业领袖等2,500名全球C-Suite高管的SAP委托调查,10名商业领导者的九个出售人员表示,AI对未来五年来对其生存至关重要,10人在10次实施AI或计划明年这样做。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。