‌·
分享到:

人工智能治理的发展方向是什么?多位专家从全球视野进行探讨

“我国人工智能治理应因地制宜,加强技术社会伦理的科普”

来源:南方都市报     2023年07月11日        版次:GA12    作者:黄慧诗 樊文扬 马宁宁 于典

  7月6日-8日,以“智联世界 生成未来”为主题的2023世界人工智能大会在上海举办。7日上午,由南方都市报和清华大学人工智能国际治理研究院联合主办的“人工智能创新与治理”分论坛在上海世博中心顺利举行。

  论坛上,中欧数字协会主席鲁乙己(Luigi Gambardella),清华大学公共管理学院院长、科技发展与治理研究中心主任朱旭峰,联合国大学驻澳门研究所研究主管塞尔吉·斯汀克威奇(Serge Stinckwich)和清华大学惠妍讲席教授、电子系长聘教授周伯文,就人工智能治理的发展方向和趋势,分享了自己的观察与思考。

  欧盟如何探索AI创新监管框架,中欧数字协会主席鲁乙己:“不同地区合作制定健全的监管框架至关重要”

  人工智能驱动创新的时代,政策制定者、行业领导者和利益相关者进行建设性对话并合作制定健全的监管框架,是至关重要的。如此,我们才可以共同应对人工智能的复杂性,释放其巨大潜力,铸造一个技术为善的未来。

  ——鲁乙己

  论坛上,中欧数字协会主席鲁乙己通过视频演讲的形式,分享了对全球人工智能监管的看法,并详细介绍了欧盟的探索路径。

  他认为,当前人工智能已超越了国界,不同地区人工智能监管的协调以及国际合作有其必要性。如此一来,才能共同应对人工智能的复杂性,构筑技术向善的未来。  

  “以负责任的方式开发和应用人工智能技术”  

  几个月前,特斯拉CEO埃隆·马斯克联合其他人工智能领域的专家签署了一封公开信,敦促谨慎行事、呼吁暂停某些研究。他们提出,如果无法进行谨慎地监管和控制,人工智能可能对社会造成危险。

  在鲁乙己看来,“这一呼吁反映了人工智能领域日益形成的共识,即我们需要以负责任的方式来开发和应用人工智能技术。”

  目前,世界各国正不约而同地掀起一股监管浪潮。以中国为例,2022年末网信办、工信部、公安部联合发布了《互联网信息服务深度合成管理规定》,该规定于今年年初生效。2023年4月,网信办公开了《生成式人工智能服务管理办法(征求意见稿)》,提出生成式人工智能产品提供服务前需申报安全评估。

  与此同时,欧盟也在搭建人工智能监管制度方面做出许多部署。鲁乙己介绍道,早在2018年4月,欧盟委员会就通过了一项“人工智能战略”。这一战略基于三个支柱:第一,增加公共和私营部门在人工智能方面的投资;第二,为社会经济变化做好准备;第三,确保适当的道德和法律框架。

  在上述战略发布三年后,欧盟委员会在2021年提出一项立法提案,即《人工智能法案(Artificial Intelligence Act,以下简称AIA)》,并计划最早将于今年底颁布。

  法案内容包括,如果人工智能被用于欧盟市场并影响到欧盟用户,那么该技术位于欧盟内外的公共和私营部门都将受到监管;人工智能技术将采用整个欧盟统一的风险测定方法,界定为拥有不可接受风险、高风险、有限风险和低风险。法案还将禁止拥有不可接受风险的技术在欧盟实施,比如利用潜意识技术扭曲个人行为的人工智能系统,同时对拥有高风险的技术提出一定限制,比如用于关键交通基础设施的人工智能系统。

  基于AIA,欧盟委员会还与欧盟成员国共同制定了协调计划,旨在进一步增强欧盟在新一波技术革命中的国际影响力。为了加速对人工智能的投资,该计划还寻求欧盟可用资金,通过数字欧洲计划、欧洲地平线计划以及欧盟复苏与韧性工具等来进行投资,计划每年在人工智能领域投资10亿欧元。

  就在去年,欧盟委员会针对AIA发布两项补充措施,要求重新审查先行的法律法规,以使这些责任规则适应数字时代和人工智能的需求。今年6月,欧洲议会再对法案提出修正意见,包括要求生成式人工智能的公司披露其用于开发系统的受版权保护的材料。

  重视人工智能监管国际合作  

  值得一提的是,考虑到数据在构建人工智能系统中的重要性,欧盟还在数据安全领域发布多项法案,包括《网络安全战略》《数字服务法案》《数字市场法案》《数据治理法案》等,旨在保障人工智能基础设施开发所需的数据可靠且安全。

  其中的《通用数据保护条例(General Data Protection Regulation,以下简称GDPR)》提出的同意、保护和透明度原则,已被纳入到人工智能监管体系中。由于人工智能往往依赖大量数据,GDPR为处理个人数据制定了严格的规则,确保个人对其数据有控制权,对在欧盟运营的企业施加了限制。鲁乙己认为,人们时至今日仍不清楚AIA在实践中的效果会如何,对企业的创新影响如何,监管成本同样不清楚。尽管如此,他相信随着时间的推移,AIA将提供一个促进负责任的人工智能创新的监管框架。

  鲁乙己表示,随着中国成为人工智能发展的全球领导者,其监管与全球实践保持一致至关重要。中国监管部门需要建立信任,促进国际合作,确保人工智能处于负责任地开发部署的状态。

  在演讲的最后,他呼吁人工智能超越国界,不同地区人工智能监管的协调以及国际合作有其必要性。通过拥抱共同的愿景,各国可以共同塑造人工智能的未来,促进发展,同时保护人类的最佳利益。

  面对新兴技术如何规制?清华大学公共管理学院院长朱旭峰:产业、人口结构及社会压力决定一国AI治理方案

  通过一些办法让普通老百姓了解人工智能的发展情况和伦理原则,让他们更容易接受,从而有意识地理解人工智能对社会的影响,避免新技术被“妖魔化”。

  ——朱旭峰

  论坛上,清华大学公共管理学院院长、科技发展与治理研究中心主任朱旭峰发表主旨演讲。他梳理分析了全球各国采取的人工智能治理措施,指出产业结构、人口结构和社会压力是影响一个国家制定治理方案的三大原因。

  他建议,我国进行人工智能治理应注重“因地制宜”;同时,要加强有关人工智能技术伦理的社会科普和教育,提升新兴技术的社会接受度,避免新技术被“妖魔化”。今年以来,ChatGPT无疑已成为科技圈产业界最热门的话题之一,它的问世似乎标志着人们迎来了全新的AI时代。不过,在人工智能领域不断取得突破进展,深刻影响和改造人类社会的同时,有关如何监管、治理的讨论也从未停歇。    

  偏向产业发展还是规制?各国AI治理手段不同

  今年6月,多个国家在人工智能立法方面有所动作,试图通过立法加强AI治理。欧洲议会通过全球首部专门针对人工智能的综合性立法《人工智能法案》授权草案;美国民主党、共和党众议员共同提交《国家人工智能委员会法案》。在我国,《人工智能法》已被列入国务院2023年立法工作计划,草案预备提请全国人大常委会审议。

  人工智能的发展浪潮已不可避免地席卷而来,从全球视角看,各国在治理方面采取了哪些措施?又有何差异?会上,朱旭峰发表了题为《人工智能治理的全球版图》的演讲,对上述问题作出解答。

  朱旭峰首先提到了“科林格里奇困境”——一项新兴技术如果因为人们担心不良后果而过早实施控制,这项技术就很难发展;反之,控制过晚可能变得“一发不可收”。“这就导致了一个悖论——我们到底应该在什么阶段、什么场合开始对新兴技术的发展进行规制、治理?”

  朱旭峰对各国发布的相关政策文件进行了梳理分析。到目前为止,美国、英国等国家颁布了最多的人工智能治理政策,中国紧随其后。值得注意的是,不同国家在治理模式、治理方法上有较大区别。

  一般各国针对人工智能的治理模式,可以概括为促进技术和产业发展以及规制技术风险两个方向政策工具的组合。具体而言,在人工智能治理是偏向于发展还是规制方面,不同国家的做法各有侧重。比如,新加坡等国家侧重积极发展人工智能以增强国际竞争力,而欧盟则通过树立监管规则以提升产业发展与全球竞争水平。

  朱旭峰进一步分析,在人工智能治理过程中偏向于规制的做法,也会采取不同方案,即以市场或是政府监管的方式进行规制。例如,美国主要采用市场为主体的监管方式,各州自行立法,更多以市场的力量来推动规制,充分发挥企业的作用。欧盟各国则是政府为主体进行监管,通过各国政府加强监管、发布相关政策文件来实现人工智能治理。

  同样,在人工智能治理过程中具体可分为国家导向和市场导向。前者的典型案例是韩国,其推崇通过国家规划、国家方案来布局人工智能产业发展。印度政府的干预相对较少,人工智能产业根据市场导向自由发展。  

  加强AI科普教育 避免技术被“妖魔化”  

  那么,为什么各国会选择不同的人工智能治理模式?朱旭峰指出主要原因包括三个方面。

  首先是产业结构,即产业格局和技术发展水平会影响政府发展人工智能的重点方向。比如,美国的人工智能发展较为领先,因此采取的治理措施以鼓励创新发展为主,强调监管的科学性和灵活性。欧盟的人工智能发展较美国仍有一定差距,如果采取不加限制的鼓励措施,可能面临相关产业和数据被美国等先进国家企业掌控的局面,因此适当对人工智能技术进行监管也是保护自身产业发展、树立全球监管规则、增强产业全球竞争力的一种手段。

  其次是人口结构,一个国家的人口和劳动力结构,尤其是老龄化结构和劳动力储备等将影响人工智能的治理方向。如日本发展人工智能的重要考量是通过自动化机器人等技术,替代劳动力,提供适老化服务以更好地缓解老龄化社会的挑战。

  再者是社会规范和民众压力,“它会影响一个国家人工智能治理的整体生成逻辑,各国从而形成不同的人工智能治理版图。”朱旭峰举例,100多年前汽车在英国的发明曾严重冲击了英国马车夫这一行业,于是车夫以汽车可能撞伤人的风险为由要求限制其行驶速度。该建议被采纳后,英国汽车产业的发展受到限制,其后世界工业中心逐渐从英国转移到美国。

  朱旭峰针对我国正在推行的人工智能治理提出了数点建议。

  一是要“因地制宜”,在充分考虑产业结构、人口结构、社会压力等因素的同时,探索符合我国国情的人工智能治理方案,明确不同发展阶段的治理目标和重点,加大政策支撑力度,优化技术创新与产业发展的环境。

  二是加快人工智能领域人才的培养,构建基于深度产教结合的人工智能人才生态体系。

  三是加强科技伦理研究和教育,提升新兴技术的社会接受度。既要注重学术机构对科技伦理的研究,还要加强有关人工智能技术的社会科普和教育。

  谈生成式人工智能双面影响,UNU专家塞尔吉:训练GPT-3排放的温室气体约合600架次伦敦-纽约飞行排放量

  数据标注员需要在海量互联网内容中完成对文本的抓取、阅读、梳理、剔除。工作人员需要直面暴力、仇恨、偏见、性别不平等、性虐待等负面信息。这可能会对工作人员带来精神创伤。

  ——塞尔吉·斯汀克威奇

  论坛上,联合国大学驻澳门研究所研究主管塞尔吉·斯汀克威奇(Serge Stinckwich)指出,以ChatGPT为代表的生成式人工智能(Generative AI,生成式AI)会对联合国17项可持续发展目标带来“双刃剑”式影响。在气候变化方面,训练生成式AI会带来大量温室气体排放,如训练GPT-3排放的温室气体大约相当于600架次伦敦-纽约飞机的飞行排放量。  

  大语言模型训练造成大量温室气体排放不容忽视

  越强大的生成式AI需要在训练时使用越多的参数(Parameters),中央处理器处理数量越庞大的参数则会造成越多的温室气体排放量。塞尔吉透露,训练GPT-3排放了约500吨二氧化碳,大约相当于600架次伦敦-纽约飞机飞行的排放量。Google公司2019年训练的大语言模型BERT约需3亿参数,而一个中央处理器运行3亿参数造成的温室气体排放相当于一架泛美航班的排放量。尽管尚未得知具体排放量,但据现有公司披露报告可以看出,大语言模型训练的确造成了大量温室气体排放。  

  训练生成式AI的过程或造成工作人员精神创伤  

  塞尔吉介绍,训练生成式AI需要使用从互联网抓取的千亿级别数量的文本。数据标记员需要在海量互联网内容中完成对文本的抓取、阅读、梳理、剔除。工作人员需要直面暴力、仇恨、偏见、性别不平等、性虐待等负面信息,这可能会对工作人员带来精神创伤。

  他援引了一篇发表在TIME上的报道。报道称,2021年11月,ChatGPT的出品公司OpenAI在肯尼亚开展了名为Sama的项目,项目要求外包公司工人对数以万计的文本片段进行标注,标注后的内容会被用于后续训练ChatGPT。数据标记员以每小时不足2美元的报酬,每天在9小时工作时间里,阅读并标注150-250篇文本,过滤掉其中带有暴力、仇恨、性虐待等不良内容。这份工作给一些数据标记员带来了痛苦,甚至出现精神问题。

  “我们需要关注这些问题。”演讲结束前,塞尔吉再次强调。目前,塞尔吉所在的联合国大学澳门研究所已开展多项负责任人工智能研究(Responsible AI)。研究项目涉及AI与性别平等、AI与安全风险、东南亚国家AI政策等议题。

  A12-14版 出品:南都数字经济治理研究中心 统筹:程姝雯 李玲 采写:黄慧诗 樊文扬 马宁宁 于典 赵霖萱 赵唯佳 刘嫚 蒋小天 杨博雯 黄莉玲 胡耕硕

手机看报
返回奥一网 意见反馈