信息专员办公室(ICO)已向公司和其他组织发表了一份关于使用人工智能(AI)的公司和其他组织的80页的指导文件。
该指导是牛津大学计算机科学系的副教授Reuben Binns的两年内研究和咨询,以及ICO的AI团队。
该指导涵盖了ICO认为是“符合数据保护的最佳实践,以及我们如何解释数据保护法,因为它适用于处理个人数据的AI系统。指导不是法定守则。它包含有关如何将相关法律解释的建议,因为它适用于AI,以及关于组织和技术措施的良好做法的建议,以减轻AI可能导致或加剧的杀戮风险“。
它旨在为“审计AI”提供一个框架,专注于数据保护合规性的最佳实践 - 无论您是设计自己的AI系统,还是从第三方实现一个“。
它体现了,它说,“我们将在审计和调查中使用的审计工具和程序;关于AI和数据保护的详细指导;而一个工具包旨在为组织提供进一步的实际支持,审计自己的AI系统的合规性“。
它也是一个互动文件,它邀请与ICO进一步沟通。
据说这一指导旨在瞄准两个受众:“那些具有合规焦点的人,如数据保护人员(DPO),一般律师,风险管理人员,高级管理人员和ICO的自己的审计师;技术专家,包括机器学习专家,数据科学家,软件开发商和工程师,和网络安全和风险管理人员“。
它指出了两个安全风险,可以通过AI加剧,即“培训AI系统通常需要大量个人数据的损失或滥用”;由于引入新的AI相关代码和基础设施,因此将引入软件漏洞。
例如,随着指导文件指出,开发和部署AI的标准实践涉及必要地处理大量数据。因此,这是一个固有的风险,这不能遵守数据最小化原则。
这是根据GDPR [欧盟一般数据保护规范]作为前计算机每周记者沃里克阿什福德的掩盖,“要求组织不超过绝对必要的时间持有数据,而不是从目的改变数据的使用它最初收集的是 - 同时 - 它们必须删除数据主题的任何数据“。
虽然指导文件指出,数据保护和“AI伦理”重叠,但它不寻求“为您使用AI提供通用的道德或设计原则”。
什么是艾,在ico的眼中?“我们使用伞术语”AI“,因为它已成为一系列技术的标准行业术语。AI的一个突出区域是机器学习,这是使用计算技术来使用(通常)大量数据来创建(通常复杂的)统计模型。这些模型可用于对新数据点进行分类或预测。虽然并非所有AI涉及ML,但最近近期AI的兴趣是在某种程度上以ML驱动的,无论是在图像识别,语音到文本还是对信用风险中的某种程度上都是由ML驱动的。
“这一指导旨在侧重于数据保护挑战,同时承认其他类型的AI可能会导致其他数据保护挑战。”
ICO特别感兴趣是AI中“解释性”的概念。指导继续:“与Alan Tying Institute合作,我们已经为组织如何最好地解释他们使用AI来融资的指导。这导致了解释了通过AI指导制定的决定,该指导在5月2020年5月发表“。
该指南包含关于“控制器”与“处理器”之间的区别的评论。它说“确定目的和处理手段的组织将是控制器,无论它们如何在处理服务的任何合同中描述。
这可能与围绕美国数据分析公司Palantir在NHS数据商店项目中的参与的争议有关,在帕兰蒂尔被Palantir反复强调,提供者仅仅是一个处理器而不是控制器 - 这是NHS在合同关系中。
该指南还讨论了这些事项,因为数据集中的偏差导致AIS进行偏见决策,并提供此建议,以及其他指针:“在培训数据的情况下,可以通过添加或移除关于人口的/超出级别的子集的数据(例如,在妇女的贷款申请中添加更多数据点)来平衡它。
“在培训数据反映过去歧视的情况下,您可以修改数据,更改学习过程,或在培训后修改模型。
ICO的监管创新和技术副局长Simon McDougall表示,指导说:“了解如何评估数据保护原则的遵守情况可能在AI的背景下具有挑战性。从加剧,有时是使用AI系统的歧视和偏见的歧视和偏见的新颖,安全风险。技术专家和合规专家难以遵守兼容和可行的AI系统。
“该指南载有关于组织可以使用这些技术造成或加剧造成的风险的最佳实践和技术措施的建议。它反映了当前的AI实践,实际上是适用的。“
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。