4月27日,小朋友在北京科幻嘉年华现场体验VR游戏。当日,2024第八届中国科幻大会在石景山区首钢园开幕。作为2024中关村论坛平行论坛,本届大会为观众带来了“科技+想象力”的视觉盛宴。 新华社发
科技的迅猛发展为人们带来了诸多便利,但也不断挑战传统的法治模式和治理机制。在促进创新与防范风险之间,如何寻得微妙的平衡,是摆在眼前的难题。
日前,为期5天的2024年中关村论坛年会在北京落幕。南都记者注意到,科技与法治是今年中关村论坛颇为关注的议题之一,不仅首次设立了全天的平行论坛,专题探讨“良法善治护航科技创新发展”,还聚焦数据安全治理、知识产权创新保护等议题,希望汇集多方智慧探寻引导科技向善的治理对策。
面对人工智能带来的数据隐私、信息安全、知识产权保护和伦理道德等挑战,与会者频频提到的一个技术破题思路是“用AI打败AI,用魔法打败魔法”。与此同时,中国要不要制定一部统一的人工智能法、单独立法是否可行、这部法该如何定位及主要任务是什么……诸如此类,有关人工智能立法的问题也引发热议。
预 测
未来立法会进入数字空间 科技发展在重塑社会关系
从脑机接口、6G发展、具身智能,到碳中和、生命健康、空间科学……在2024年中关村论坛年会期间,来自政产学研的参会嘉宾,分享交流着前沿的科技成果,畅谈技术如何改变未来的生产生活方式。
4月27日上午,在由北京市司法局主办,北京市人大常委会法工委和北京市科委、中关村管委会联合主办的“首届科技与法治论坛”上,中国人民大学副校长王轶也畅想了这样的一个未来场景:有一天,身处物理世界的你开始进入梦乡休息,而虚拟空间里你的数字孪生人还在勤勤恳恳地工作;第二天你睁开眼醒来,发现它已经完成你睡前设定的各项任务,而且比你本人处理得更好……
“当我们进入到一半实体一半虚拟的生存状态时,法律也需要对相应的规则作出调整。”王轶表示,如果说以往的立法关注所在仍是物理世界,那接下来一定会进入到数字空间——对今天人们所说的元宇宙、虚拟空间里一些日益凸显的问题进行相应的调整。在王轶看来,科技发展在改变人们生产生活方式的同时,也在重塑着社会关系,推动文明的转型和发展。而文明的转型会改变“权利”和“权力”的底层逻辑,从而推动法治的变迁。同时他强调,不管文明如何转型、科技如何发展,人类所追求的生命健康、财产安全、交易便利、人格尊严、生活得到切实保障的初衷不会改变。科技应该为让人拥有美好生活而服务。
意大利驻华使馆前科技参赞、欧洲自然科学院材料与纳米技术实验室主任普利尼奥·因诺森齐在致辞中则提到,科技不断发展的今天,更应该审慎思考如何制定和完善相关法律法规,以保障人们的安全和权益,同时推动技术的创新和应用。
“从数据隐私到算法偏见,我们需要找到一个合适的法律框架,以平衡科技创新与社会稳定之间的关系。这不仅是对理论的考验,也是对我们社会智慧和道德观念的挑战。”普利尼奥·因诺森齐说。
破 题
解决数据安全风险 要依赖算法和工具支撑
过去一年多,以大模型为代表的生成式AI掀起了全球人工智能技术发展的新浪潮,也带来了全新的治理挑战。大模型训练通常需要处理大量的数据,其中就涉及数据安全、个人隐私和知识产权保护等难题。
在数据安全层面,不少参会嘉宾提到,在生成式AI时代面临的是基于不断组合和创造的数据安全风险。而原有的一些安全技术,已不太适用于大模型。
今年中关村论坛年会期间,在另一场“数据安全治理与发展”的平行论坛上,清华大学计算机科学与技术系教授黄民烈提到,过去做数据处理时,可以将有害信息过滤、清洗干净;但现在生成式AI会通过训练组合生成新内容,它们不存在于原有语料库里,而且可能涉及有害信息。
“依靠现有的安全检测能力,要百分百过滤大模型含有的有害信息和涉及个人隐私数据,仍需打个问号。”中国科学院信息工程研究所研究员虎嵩林告诉南都记者,即便技术能把训练数据清洗得很干净,但如果大模型只见过正面的例子,而不知反例,这本身也会影响大模型自我反思和发现有害信息的能力。
如何应对大模型带来的数据安全风险?多位嘉宾提到,“用AI对抗AI、用魔法打败魔法”的破题思路。黄民烈表示,要彻底解决这种风险,不能光靠人工或仍沿用一些静态的方法做相对固定的检测,而是要依赖算法和工具的支撑。
在算法研究上,黄民烈提到可以尝试用对抗攻击的方法,比如事先用算法自动发现大模型的漏洞和风险,再针对性地制定安全和对齐手段,以此来强化大模型的安全能力。
南都记者注意到,今年中关村论坛年会期间,首届生成式人工智能大赛正式启动。据主办方介绍,此次大赛的初衷正是希望通过“攻、检、防”,不断发现漏洞、自动识别并进行持续化的安全加固,以构建攻、检、防三位一体的竞赛与协同发展模式,在对抗循环中不断提升生成式AI内生安全能力。
思 考
人工智能是IP的终结者吗?专家呼吁设立知识产权制度“特区”
有意思的是,为应对生成式人工智能给知识产权带来的挑战,知识产权领域的专家也提出了“用魔法打败魔法”的解题思路。
中国科学院科技战略咨询研究院研究员肖尤丹提到,大模型的训练数据包括人类创作的文字、画作、音乐、照片、视频和代码等,正是从这些海量的数据中,大模型获得了生成同样产物的能力。今天的生成式人工智能采取的是一种“砸碗造碗”的方式,这必然会引发与既有知识产权权利人之间的冲突。
如何解决这个关键问题?肖尤丹建议用“用魔法打败魔法”,在原有技术基础上,需要鼓励在传统内容创作、流通和保护中,更为普遍性地引入基础保护措施,在AI大模型保护中使用区块链、数字水印等技术。
他还提出,可以从扩张作品、发明类型、设立生成式人工智能系统使用费知识产权回馈机制,建立数字化内容实用集中清算制度,重构数字化合理使用制度,以及增加非人工智能举证责任等方式,平衡人工智能技术发展与知识产权制度的矛盾。
南都记者关注到,大模型训练数据的版权争议,一直持续不断。近日,美国八家新闻机构起诉OpenAI、微软,指控其未经许可使用了它们的新闻作品来训练生成式AI。在此之前,还有音乐人和作家集体喊话,要求大模型训练公司尊重版权。
今年4月初,国外有超过200名音乐人联署发表公开信,呼吁AI开发者、科技公司、平台和数字音乐服务商,“停止使用AI侵犯及贬低人类艺术家的权利”。去年7月,美国数千名作家也联名控诉,“数以百万计的受版权保护的书籍、文章、诗歌等作品,成为了人工智能的养料,且不用付任何费用,这是不合理的”。
训练数据的来源和质量决定大模型的能力上限,但未经授权非法使用,无疑会触及到知识产权(IP)制度的核心。面对种种侵权风险,有人甚至发出疑问:人工智能会是IP的终结者吗?
面对生成式AI带来的知识产权难题,目前在立法上仍存空白,而在已有司法判例上,国内的法院也给出了不同的判决。如何调和当前的矛盾,多位专家学者尝试提出他们的思考。
2024年中关村论坛年会开幕首日,在“全球知识产权保护与创新论坛”上,中国政法大学副校长、数据法治研究院院长时建中表示,为促进与规范人工智能发展,需要设立知识产权制度“特区”。这个制度“特区”体现在生成式人工智能预训练阶段,此时要解决的是数据易获取的问题,为推动大模型的研发需要有相对宽容的制度——包括公共数据能用尽用,权利人作适当的权利让渡等。一旦大模型经过预训练投入应用后,则要采取严格的制度来约束其行为。简单地说,时建中认为应该基于不同阶段,实施差异化的制度,在人工智能的研发、商用、使用之间合理地配置相应的权利、义务和责任。
肖尤丹表示,从1624年英国颁布垄断法案至今,回顾全球知识产权制度400年的历史,中间至少经历了三次技术变革挑战,而每次都作出了很好的回应。面对人工智能技术带来的又一次冲击,知识产权制度如何与之相处?肖尤丹认为,不能抱着固有的思路,而应厘清当前知识产权制度体系化僵局的迷思。用多样性来应对法律治理的不确定性——包括采取更多元的法律治理格局,更多层次和更敏捷的法律关系,以及更多样的法律保护手段等。
事实上,当前在人工智能与知识产权问题上,全球尚未形成一致的认识和看法。香港科技大学助理教授韩斯睿告诉南都记者,人工智能生成物如何确权保护、怎么平衡各方主体的利益等,这些问题都极具挑战性和复杂性,目前业内仍未有完全的共识。“但整体而言,还是要促进创新。”
追 问
能否一步到位制定人工智能法?中国人工智能立法之路怎么走?
自大模型横空出世后,各家科技公司纷纷加快在生成式AI赛道的布局,并推出了一系列落地商用的产品。当人工智能技术被按下加速键,如何预防随之而来的数据安全、个人隐私、知识产权保护等风险——当前无论是立法还是司法,都已经到了必须作出回答的时候。
“人工智能走到了历史的十字路口,当然需要法治来保障。但立法之路怎么走,首先要回答一个看似简单的问题,即人工智能究竟是什么。”中国社科院法学研究所副所长周汉华认为,不同的回答,对人工智能立法的走向、立法原则、执法机制等都有着决定性的影响。
根据公开资料,人工智能(Artificial Intelligence,简称AI),有人将其定义为研究或开发用于模拟、延伸和扩展人的智能的理论和技术;有的则认为它又称“机器智能”,由人工制造出来的系统所表现出来的智能;还有的定位为“智能主体”的研究与设计,展示近乎人类智能行为的计算机系统。从这些概念界定看,人工智能可以理解为是技术、能力或者系统,再进一步梳理更多文献可以发现,有关人工智能的定义其实远不止这些。
“它究竟是新质生产力,还是上层建筑?”周汉华说,人工智能涉及面广泛,政治、经济、社会、文化等领域,都可能与之有关。因此,要想一步到位制定统一的人工智能法来实现全领域覆盖,这条路径是否可行,值得深思。
去年12月,南都数字经济治理研究中心在北京发布《生成式发展与治理报告》。报告指出,当前在已有《数据安全法》等法律法规基础上,是否还要出台专门的人工智能法,各界声音不一。
报告显示,一些产业界代表认为,AI是一项通用技术,它就像互联网一样,比起对互联网本身进行统一监管,瞄准特定场景更为重要。尤其是当AI产业仍在高速发展的阶段,一些新技术、新业态不断涌现,其所产生的法律合规风险也有新的变化。在这种情况下,急于制定一部大而全的人工智能法、它能发挥多大作用、会否限制技术创新发展,仍需探讨。
南都记者关注到,我国人工智能法已被列入国务院2023年立法工作计划,草案预备提请全国人大审议。但在十四届全国人大常委会立法规划中,并未将人工智能法列入其中。
不过周汉华注意到,在上述全国人大未来5年的立法规划中,第一类立法项目专门提到,适时安排审议“推进科技创新和人工智能健康发展”的法律或者相关决定。他认为,在尚不具备制定人工智能法的条件下,先由全国人大常委会制定专门决定,然后分别推进,最终再像民法典一样编纂一部统一的人工智能法,或许也是一种可以考虑的立法路径。
同时为消除产业界的困惑,周汉华认为有必要思考人工智能立法的功能和定位。它主要是为解决哪些问题?如果仅将其定位为一部促进法,是否准确?在他看来,如果把人工智能界定为是科技和产业,因此出台一部人工智能促进法,这看似也能行得通。但事实上,促进产业发展需要先厘清规则。当前更急切的是,人工智能正在挑战传统的规则,而在现有法律框架下难以解决这些新问题。
他进一步说道,比如大模型预训练阶段采集个人信息,是否需要经过个人同意?后续AI生成的图片长得很像一个生活中的人,是否涉嫌侵权?如果都认定为侵权,产业怎么发展?“传统法律限制人工智能发展的规定非常多。如果要制定人工智能法,那它首先要解决我们法律过时的问题,而不是首先考虑怎么促进。”周汉华说。
采写:南都记者 李玲