当前位置:首页 > 今日热点 > 社会与法 > 正文

如何守住生成式人工智能的安全底线 世界时讯

2023-04-20 17:31:30    来源:法治日报·法治周末    

■ 聚焦生成式人工智能


(资料图)

■ 前沿话题

开栏语

运用法治观念、法治思维和法治手段,为互联网健康有序发展提供保障,已经成为共识。互联网新技术新应用新业态新模式带来的风险挑战不容忽视,需要网络立法、网络执法、网络司法、网络普法、网络法治教育进行前瞻性、全方位应对,《法治周末》特推出“前沿话题”栏目,记录这些网络法治实践。

为促进生成式人工智能技术健康发展和规范应用,4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》(以下简称征求意见稿)公开征求意见。

作为国内首个专门针对AIGC的监管办法,征求意见稿对生成式人工智能提供者的责任边界提出要求,重点强调了生成式人工智能产品训练数据及生成内容的真实性。

结合征求意见稿,针对AIGC服务与内容相关法律问题,《法治周末》记者与业界专家展开对话。

■对话人:

王莹 中国人民大学未来法治研究院副院长

许可 对外经济贸易大学数字经济与法律创新研究中心主任

张延来 浙江垦丁律师事务所主任律师

■主持人:

仇飞 《法治周末》记者

责任分配问题值得探讨

主持人:按照征求意见稿,提供AIGC产品或服务应当符合多项要求,提供者还需承担该产品生成内容生产者的责任,涉及个人信息的,承担个人信息处理者的法定责任,对此怎么看?

王莹:从文本表述来看,这种责任定位包含了产品生产者和内容提供者责任,似乎有过于严苛之嫌。从AIGC技术特征上来看,作为一种生成合成类算法应用,AIGC是利用大语言模型和公共、开放数据根据用户输入搜索、生成合成信息,并非传统网络法中的信息内容提供者,其根据用户的指令生成的信息向用户展示,也不能理解为传统的信息发布、传播。而将其理解为产品简单套用传统产品责任中的严格责任原则,值得进一步商榷。

目前,生成式人工智能仅生成文本、图像、声音等信息内容,并不会像传统的产品瑕疵那样直接导致生命健康安全问题,其作为一个人工智能产品最多涉及到人格权侵权、著作权侵权。生成式人工智能引发侵权问题,可能来自于人工智能本身的漏洞或技术现有水平,人工智能的学习训练到生成的过程并不是完全可解释和可控的。2022年9月通过的欧盟《人工智能民事责任指令》规定只有高风险的AI应用才承担AI严格责任。最新的欧盟《人工智能法案》的立法讨论也未将Chat-GPT简单界定为高风险AI应用,该技术是否属于高风险AI应用,或者将其作为通用人工智能跨越高风险、低风险的分类视为一种新的类别加以监管,仍然是一个开放性的问题。

许可:已经实施的《互联网信息服务深度合成管理规定》对深度合成服务已有规定,其对深度合成服务提供者的要求,同样适用于AIGC产品提供者。ChatGPT替代了人类在收集信息中评价、思考、推理、取舍的整个思维过程,所以法律上会认为避风港原则不太适用于ChatGPT这种人工智能生成的场景,因此需要有一个特别的规定,就是生成式人工智能产品要对自己生成的内容负责。但这里面的问题其实也有很多,比如说很多内容的产生并不是由ChatGPT一方完成的,而是在与使用者的交互过程中完成的,也就是说内容是由使用者和ChatGPT共同生产的,这个时候就不能完全要求由AIGC产品提供者来承担责任,相关的责任划分需要进一步明确。

张延来:征求意见稿对于生成式AI技术服务提供者的责任要求过高,毕竟这是一项技术,应当符合技术中立原则。在技术应用过程中,无论是内容方面的问题还是个人信息等问题,都不完全取决于AI技术提供者本身,而是跟具体使用技术的用户有密切关系,所以将技术提供者定义成内容生产者和信息处理者似乎在法律身份的定位上有些错位,而且也会导致内容权利归属和个人信息权益归属等衍生问题出现。

个人信息保护与数据的法律基线

主持人:有观点认为,在AIGC产品中,用户对话的过程就是被收集信息的过程,可能存在个人信息泄露、提供虚假信息等隐患。征求意见稿也提到了个人信息保护,有哪些值得关注的?

许可:按照征求意见稿第九条,提供生成式人工智能服务应当按照网络安全法规定,要求用户提供真实身份信息。我们知道网络安全法中的实名制是指发布信息阶段的实名认证,也就是说如果只是单纯的浏览模式,原则上是不需要用户实名的。用户开始使用AIGC时是否需要实名认证,这是一个需要讨论的问题,如果用户没有实名制的话,AIGC并不会直接或间接的识别这个特定的人,很可能不存在个人信息保护的问题;但如果有实名认证,用户提供的信息就可能构成个人信息,AIGC产品提供者应按照个人信息保护法遵守个人信息保护义务。

主持人:征求意见稿对训练数据提出真实性等要求,此外还要求“不得根据用户输入信息和使用情况进行画像”,这对AIGC发展会产生哪些影响?

许可:作为生成式人工智能产品的基础,数据的重要性不言而喻。但如何合理设定数据的法律基线,仍有待进一步研究。

首先,要研究数据质量和数据合法性的矛盾。为了尽可能提升生成式人工智能产品的能力,胜任各种自然语言处理任务,其必须“识遍天下字,读尽人间书”,如果将合法性作为数据的前提,提供者在海量的数据面前,为了避免承担法律责任,必然采取“宁可错杀,不可放过”的原则,不但导致大幅限制输入的数据源,还损害了数据的客观性、多样性。

其次,要研究数据训练和信息生成的矛盾。从风险预防和监管目标看,生成式人工智能产品的风险集中在信息生成阶段,在底层算法的作用下,开始训练的数据和最后信息的生成内容并不是一一映射的关系,其中间经过了预测、分类、聚类、关联等复杂的变换,因此,训练数据的合法性并非信息生成合法性的必要条件。

最后,要研究责任承担者涉及的矛盾。按照征求意见稿,AIGC服务提供者须对预训练数据承担合法性义务,但实践中,大量提供服务的主体并非生成式人工智能技术的开发者,其事实上并不参与数据的预训练和优化。从自己责任的原理出发,这里的责任主体应限定在生成式人工智能技术的开发者为宜。

张延来:AIGC技术层面就是要用用户的输入内容作为训练语料对算法进行优化的,因此很难避免使用A用户的输入信息来回答B用户的问题。而用户画像的情况,如果是用户同意应该也允许画像,一方面画像是很多AI提供个性化服务的前提,另一方面画像也是后续在AI中进行广告、推荐等商业盈利的必要措施。

平衡安全与发展

主持人:您认为征求意见稿还需要完善哪些内容?

许可:征求意见稿对当前的ChatGPT等新型的人工智能产品和服务,提出了针对性的方案,从数据处理预训练、信息内容生成等各个环节,形成了一个逻辑上非常清晰、全链路的一种规范。同时在内容设计上,融合了算法治理、个人信息保护、数据安全和信息安全,使用了既有的很多制度安排去对待这种新兴技术,这也体现了多层次、多方面的立法思路。

但征求意见稿实施的这种保护能不能实现,或者说能否推动这个领域在安全基础上的发展,是我非常关注的。在这一次的征求意见稿中,我们看到大量的内容仍然是安全的规则。守住安全底线在行业发展过程中非常重要,但目前我国的AIGC是否以及能否发展,还在探索中,我认为,立法和监管最终还是要再去平衡发展和安全的关系。

张延来:征求意见稿要求提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。生成式人工智能的训练需要极为庞大的数据量,对于数据来源的前置审查义务不宜要求过高,否则可能会导致国内AI的训练落后于国外的进度,建议要求提供者事前形式审查即可,事后如果发现侵权或者违法,则依照有关法律规定事后个案处理更为妥当。

此外,征求意见稿要求提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,应当暂停或者终止服务。我认为,不应“一刀切”地规定“暂停或终止服务”,实践中,对于用户的违规行为,应当允许平台根据行为的具体程度和危害给予相应力度的处罚和限制,一概要求“暂停或终止服务”是不合理的,而且可能引发用户对平台的诉讼。

关键词:

上一篇:消息!章公祖师肉身坐佛追索案胜诉之后……
下一篇:最后一页