推广 热搜: page  使用  音视频  个数  选择  搜索引擎  企业  百度  可以  父亲 

对生成式人工智能服务管理办法意见稿的几点思考

   日期:2024-12-20     作者:5avo7    caijiyuan   评论:0    移动:http://ww.kub2b.com/mobile/news/8853.html
核心提示:文|庄志明律师 今天在新浪微博上发现近期我漏掉了一个大信息,该信息和我们很多人有关,什么信息呢?4月11日,国家互联网信息办

文|庄志明律师

 

今天在新浪微博上发现近期我漏掉了一个大信息,该信息和我们很多人有关,什么信息呢?

4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》(以下简称《意见稿》)公开征求意见。

 

生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。我通过“文心一言”曾感受过这一技术,比如我问过这一问题:

这个回答得中规中矩,一本正经。

 

再看一个向“文心一言”询问交流的广告文案:

这个回答也很有滋有味。

 

总的体验感觉是人工智能生成的内容技术还是能用的,但不能完全依赖,使用人对生成内容要自己谨慎把握,正如通过搜索引擎查资料一样,你所看到的内容很难做到绝对正确,笃定相信搜索的内容迟早是要出问题的。但必须认识到,有了搜索引擎,有了人工智能生成技术,会给你的工作和生活增加很大很多的帮助和便捷。

 

生成式人工智能的监管立法方面,中国无疑走在了世界的前面。业界认为,中国首次明确针对生成式人工智能服务征求管理意见,将有利于推动AIGC(人工智能生成内容)产业健康稳定发展。

 

《意见稿》共21条,我认真通读,《意见稿》内容既体现了安全,也体现了发展,但笔者最关注的是,在安全和发展二者之间要有平衡的艺术,要有有与时俱进的眼光

 

AIGC作为一个新生事物,笔者认为在监管方面应给以包容和纠错机制,不能在绝对追求安全中错失发展的机会。通俗说,起始阶段,为了安全实施重度监管可能会葬送人工智能服务提供者的发展动力和发展机会。如果我们的发展动力不足,发展机会欠缺,让西方国家占取先机,制高点被他们抢了,那对我国来说将是一个重大损失。

 

我在网上查阅《意见稿》的相关评论,发现对《意见稿》第四条“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。”的反响很大,大就大在“真实准确”。很多业内人士认为,人工智能生成内容是通过计算机算法得来的,信息出处都未必真实准确,怎么能做到生成结果是“真实准确”?皮之不存毛将焉附,这是很浅显的道理。

 

我们在运用生成内容的同时也须知单凭一个生成结果就判断一个事情的真实性是不够的,AI不是万能的,AI是一个与时俱进的技术,AI必须在容错纠错中发展。

 

任何工作保证无错,那只能原地踏步。开车为了前进,而不是为了刹车。

 

这是一个新兴产业,开端苛求“真实准确”,会让人工智能生成内容的服务方畏手畏脚,对该产业的发展是不利的,往大处说,导致生成式人工智能的国际竞争力消退。

 

笔者也关注到《意见稿》第五条主体责任规定:“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任。 ”

 

该规定在逻辑上貌似不能自洽,既然是“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务“,这是作为服务的提供者,怎么又成”生产者“了?打个不恰当比方,这是内容“搬运工”好吧。让商品“搬运工”承担商品生产者的责任,无论如何也说不通的。

 

对此,我们不妨再深入下,从AIGC技术特征上来看,“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务“,其本质并非内容提供者,而是利用大语言模型和公共、开放数据根据用户输入生成相关信息,类似于另一种搜索引擎服务,信息整合,连信息内容提供者都算不上。

 

再从生产者主体责任看,我们可以参照下《产品质量法》第二十六条:“生产者应当对其生产的产品质量负责。产品质量应当符合下列要求。

(一)不存在危及人身、财产安全的不合理的危险,有保障人体健康和人身、财产安全的国家标准、行业标准的,应当符合该标准;  ……“

 

产品质量“不存在危及人身、财产安全的不合理的危险”,这是生产者的法定责任,而“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务”,和存在危及人身、财产安全问题风马牛不相及。单从这个角度,也看不出生成信息的服务者应该承担“生产者“责任的地方。

 

如果把提供聊天和文本、图像、声音生成等服务的服务者当作产品的生产者对待,一方面加重了服务者的责任,另一方面也可能触犯知识产权的问题,因为信息的原始出处不是他们的,此有贪天之功之嫌。

 

中国人民大学未来法治研究员副院长王莹也表示,目前生成式人工智能仅生成文本、图像、声音等信息内容,并不会像传统的产品瑕疵那样直接导致生命健康安全问题,其作为一个人工智能产品最多涉及到人格权侵权、著作权侵权。生成式人工智能引发侵权问题,可能来自于人工智能本身的漏洞或技术现有水平,人工智能的学习训练到生成的过程并不是完全可解释和可控的。2022年9月通过的欧盟《人工智能民事责任指令》规定只有高风险的AI应用才承担AI严格责任。最新的欧盟《人工智能法案》的立法讨论也未将Chat-GPT简单界定为高风险AI应用,该技术是否属于高风险AI应用,或者将其作为通用人工智能跨越高风险、低风险的分类视为一种新的类别加以监管,仍然是一个开放性的问题。

 

对《意见稿》第九条我认为有商榷之处,该规定为:“提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。”

 

笔者认为“用户提供真实身份信息“对人工智能生成内容,意义不大。根据相关法律规定,为用户提供信息发布、即时通讯等服务,应当要求用户提供真实身份信息,而生成式人工智能服务本身是基于人与机器之间的交流,这既不是“信息发布”,也不是“即时通讯“。在人与机器之间的信息输入输出活动中,要求用户提供真实身份信息实属多余。

 

关于该真实身份问题,北京大学法学院薛军教授表示:“生成式人工智能服务,在特定情况下更类似于搜索服务,本质是一种智能检索,应当允许用户以游客的身份使用。比如,必应搜索引擎迁入了ChatGPT问答模型,普通游客都可以浏览使用。这样,也可以更好保护用户的隐私,方便网民使用”。

 

笔者同意薛教授观点,任何人都可享受生成式人工智能服务的快捷服务,是否真实身份在所不问,但将人与机器交流后的生成内容通过网络发布,则需要依法提供真实身份,经合规账号发布。人机交流如果不是为了对外发布,仅仅为了自我学习,自我娱乐,自我消遣,非要兴师动众认证真实身份干嘛?实无必要,多此一举。

 

《意见稿》第十八条规定:“提供者应当指导用户科学认识和理性使用生成式人工智能生成的内容,不利用生成内容损害他人形象、名誉以及其他合法权益,不进行商业炒作、不正当营销。

 

用户发现生成内容不符合本办法要求时,有权向网信部门或者有关主管部门举报。“

 

第十八条第一款其实没有操作性,提供者没办法(更无动力)进行这样的“指导”工作,这方面工作应当由教育机构、宣传、网信部门和社会通过网络安全教育和普法去完成,和提供者没啥关系,一个没有实操性的条款放在这里只会淡化法律的严肃性,建议删除第十八条第一款(第二款仍保留)。

 

综上所述,我认为,对生成式人工智能服务这个新事物,既要踩刹车,更要踩油门,缺一不可。

 

对生成式人工智能服务管理办法意见稿的几点思考

本文地址:http://ww.kub2b.com/news/8853.html     企库往 http://ww.kub2b.com/ ,  查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

 
 
更多>同类最新文章
0相关评论

文章列表
相关文章
最新动态
推荐图文
最新文章
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号