今天,很高兴为大家分享来自21世纪经济报道的星纪魅族朱玲凤:人工智能产业链分散、相互依存且动态变化,风险或被继承甚至扩散,如果您对星纪魅族朱玲凤:人工智能产业链分散、相互依存且动态变化,风险或被继承甚至扩散感兴趣,请往下看。
21世纪经济报道 记者 郑雪 北京报道
8月15日,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会在北京举行。会上,星纪魅族集团数据合规执行总监朱玲凤围绕人工智能产业链的复杂变化对于当前治理的冲击进行详细分析。在她看来,人工智能产业链呈现分散式、互相依存,但又是动态变化的特点。基于人工智能产业链的特点去看风险,风险从上游传导到下游,其风险影响更大。
“人工智能产业链走得非常快,但是产业形态尚未定型。”朱玲凤说道。在她看来,不同于移动应用从APP、SDK、应用分发直至操作系统构筑的移动应用生态圈,人工智能更适合于“产业链”的说法。无论是芯片、算力、存储,还是算法模型,对于人工智能来说缺一不可,通过相互作用最终才能形成用户可以使用的一项服务。在这种情况下,对于人工智能产业的上下游非常依赖。另外,人工智能产业链是偏动态变化的,服务最终形态会根据过程当中数据输入变化、场景的变化和选择链路的变化而发生不停的动态变化情况。
“我们很难通过传统的在个人信息保护领域的控制者和处理者的逻辑来去区分责任。在整个产业呈现分散式、互相依存,但又是动态变化的状态下,再去看风险本身,会比从个人信息保护领域出发看到的风险,从上游到下游的风险影响更大。”朱玲凤说道。如来自上游训练数据如因代表人群不足导致存在偏见,在下游的使用过程中,如面部识别过程中相关偏见可能会变成极端事件发生,风险发生继承乃至扩散。
基于上述人工智能产业链特点导致风险传递甚至扩散的特点,人工智能产业链上的企业每个环节只能看到自己的上下游,没有全景视图,责任机制落实会失效。比如风险评估和管理机制就比较难实现,对于研发者来说很难基于使用场景来识别和管理风险,提供者来说了解使用场景,但是可能并不掌握训练数据、模型选择、模型测试等情况,无法实际判断风险。
但同时需要明确的是,人工智能,尤其是大模型,或者是其他更基础类的研究需要大量的投入,大企业、平台企业占据的领导性地位会更高,在这个过程中如果不通过法定的义务去限制或衔接,则可能出现通过合同,或者通过平台规则发生责任转嫁的情况。在这种情况下更合理的方式是法律规定一个初步的义务分工,以及落实责任原则。
在人工智能出现很多可预期和不可预期的情况下,朱玲凤表示企业将从两方面进行认知。
一是法律确定性方面,需要明确告诉企业义务边界如何划分。具体到产业链,以透明性为例,需要上游数据提供方能够提供类似数据卡的方式,告知数据来源、质量、清洗过程、许可方式等,需要明晰的统一规则。对于模型方来说,在数据清晰认知的情况下,可以生成模型卡。提供方在具体场景的应用中可以向监管、用户更好展示透明性和可解释性。“在这个情况下,通过技术流程措施辅以明确义务,相互之间有清晰的责任边界以及可以互相衔接的方式,来保证整套合规义务和责任的控制。”
二是针对不可预期的风险,应该发挥整个行业的主观能动性,更建议在监管或者立法层面上以明晰的且相互衔接产业链责任划分,同时希望能有更多技术工具组,如个人信息保护中的隐私计算,人工智能领域还有很多可解释性、局部解释的算法,端到端解释性算法,这些都可以在日常工作和风险防范过程中运用,通过技术监管方式真正解决技术带来的风险。
(作者:郑雪 编辑:王俊)
好了,关于星纪魅族朱玲凤:人工智能产业链分散、相互依存且动态变化,风险或被继承甚至扩散就讲到这。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。