今天,很高兴为大家分享来自21世纪经济报道的42家德国组织呼吁欧盟加强生成式AI监管 版权威胁成关注焦点,如果您对42家德国组织呼吁欧盟加强生成式AI监管 版权威胁成关注焦点感兴趣,请往下看。
21世纪经济报道记者 钟雨欣 北京报道
42家德国协会和联盟近日代表14万名作者和表演者敦促欧盟加快起草人工智能规则草案,因为ChatGPT对他们的版权构成了威胁。
据媒体报道,参与此次行动的包括代表创意行业的Verdi和DGB以及代表摄影师、设计师、记者和插画师的多家协会,他们在发给欧盟委员会、欧洲理事会和欧盟立法者的公开信中表达了自己的担忧。“这些AI可以模仿人类,并根据提示创建文本和图像。”
信件提到,未经授权使用受保护的资料训练模型,其处理过程的不透明,以及AIGC的输出本身成为替代(劳动者的)来源,引发了责任、报酬等一系列基本问题。这些问题需要在不可逆转的损害发生之前解决。“对于任何有意义的人工智能市场监管而言,生成式人工智能都应该是关注的核心。”
欧盟委员会去年发布了人工智能立法提案,以期通过建设可信人工智能,获取全球伦理规则制定主导权。他们将在未来几个月与欧盟立法者和欧盟成员国讨论最终细节,之后才会正式立法。上述组织表示,这些规则应当在生成式人工智能的整个生命周期中对其加强监管,尤其是对基础模型提供商进行监管。
他们还呼吁这类技术的提供商对其技术生成和传播的所有内容承担责任,特别是当发生侵犯个人权益、版权以及散布虚假信息或歧视性信息时。此外,微软、谷歌、亚马逊、Meta等基础模型的供应商,不应被允许运营主要的内容分发平台。
随着ChatGPT等生成式AI火爆全球,AIGC的监管治理问题也引发各国重视。目光回到国内,国家互联网信息办公室于4月11日发布了《生成式人工智能服务管理办法(征求意见稿)》,其中指出,“提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗”,对虚假信息、歧视性内容等作出细化规定。
上述征求意见稿还提出,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。用于生成式人工智能产品的预训练、优化训练数据应不含有侵犯知识产权的内容。
AIGC知识产权侵权风险问题一直以来备受关注。中伦律师事务所合伙人王飞表示,ChatGPT底层是一款通用的自然语言生成模型,通过互联网海量的语料库训练,对语言文本进行概率建模来预测下一段输出内容的概率,从而实现根据用户输入的文字内容生成对应文字回答的功能。
“ChatGPT创作内容可以大致分为三步,即文本数据挖掘、文字接龙和训练引导。”王飞指出,ChatGPT“创作”内容前提是在互联网规模庞大的文本语料库中进行训练,以不断完善其自然语言模型。文本语料有两个主要来源:一是用户对ChatGPT输入的内容,二是ChatGPT从互联网中收集到的语料。
“AI训练过程中的‘文本数据挖掘’本身是对作品的复制、改编、汇总等,著作权法中法定许可与合理使用的法定情形均不包括数据挖掘,由此,ChatGPT等AIGC软件在进行文本数据挖掘时需要取得相应著作权人的授权。”王飞说道。
他进一步补充道,AIGC的生成过程必然涉及对数据进行挖掘、改编,这可能将侵害权利人的复制权和改编权。当涉及侵权时,AIGC软件提供方作为生成内容的提供方首先应当担责,相应用户和使用者作为生成者、传播者和受益者亦应当承担责任。
ChatGPT“创作”的内容能否构成著作权法意义上的作品?“独创性的有无是认定的关键。”王飞表示,“独”要求创作成果前所未有或与现有作品存在实质性差异,而“创”则要求创作成果具备一定的个性判断与选择。若ChatGPT创作内容能够满足这两项标准,即应给予著作权法上的保护。
“在ChatGPT生成内容构成作品的前提下,其著作权由作为软件开发者的OpenAI和作为软件使用者的用户共同享有。”王飞特别强调,若用户仅是输入简单指令或关键词,则其智力成果难以在ChatGPT生成内容中得到体现,在此情况下应仅由软件开发者即OpenAI享有生成内容的著作权。当然,约定优先原则仍然适用。根据ChatGPT《使用条款》,OpenAI将ChatGPT生成内容的全部权益主动转让给用户,因此实际应由用户享有生成内容的著作权。
AIGC相关企业在开发和利用人工智能的过程中,应如何规避相关侵权风险,做好合规建设?
“首先,AIGC生成内容侵权的根源在于文本数据挖掘,取得数据源头的授权是合规的基础。其次,AIGC的生成是否真正实现AI自我学习创作内容,而非重复再现或直接改编原作品则是合规的核心。”王飞表示。
(作者:钟雨欣 编辑:吴立洋)
好了,关于42家德国组织呼吁欧盟加强生成式AI监管 版权威胁成关注焦点就讲到这。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。