广州仲裁委员会仲裁员、银建国际控股集团执行总裁翁键。
自2022年11月发布以来,ChatGPT掀起了人工智能发展应用的新高潮,对法律活动方面也不可避免地产生着影响。ChatGPT会取代仲裁员吗?
在广州仲裁委员会近期联合举办的一场国际研讨会上,广州仲裁委员会仲裁员、银建国际控股集团执行总裁翁键曾就人工智能对仲裁行业的影响作主旨演讲。近日,南都记者对翁键进行了专访。
A
ChatGPT可用于法律文件起草甚至预测裁决结果
南都:ChatGPT在仲裁活动中都有哪些应用场景?
翁键:我觉得ChatGPT对仲裁无论是国际、国内的影响是相似的。
对于仲裁参与者而言,ChatGPT的适用范围几乎涉及所有的信息处理活动,无论是检索、写作还是预测结果。
比如,ChatGPT理解和处理大量信息的能力可用于协助仲裁员或各方当事人进行法律检索。
ChatGPT在快速查找法律条文和同类型案件的司法判例方面提供了很大的帮助,并可以独立回答用户的问题。
此外,ChatGPT具有的通过大语言模型和算法生成特定文本的能力,可以协助一方当事人很快速地起草法律文书。这可以提高仲裁效率,使其更快捷和节约成本。
如上所述,ChatGPT可以用于法律和案例检索,并生成裁决文书,这一功能可以使一方当事人能够预测裁决结果,从而辅助当事人在是否通过调解快速结案上做出决策。
ChatGPT还可以在双方辩论环节发挥作用,比如可以识别对手文件中前后表述不一致、矛盾或错误的地方,通过寻找缺陷来识别和攻击对手在陈述和举证中的弱点,甚至对对手的推理产生反驳。
南都:在实际仲裁场景中,您是否应用过ChatGPT?
翁键:我是没有使用过的。因为仲裁保密性的要求,我们不能把材料输入到ChatGPT上,担心可能泄密,这实际上也是我们对于ChatGPT的担忧之一。
不过我曾用一个模拟的案例体验过,我要求ChatGPT就该案例写一份仲裁申请书,接着写一份答辩状,最后写一份裁决书。
最终ChatGPT写出来的都是一个简单的模板式的内容,非常类似于一个文书的模板,达不到我所期望的效果。
给出回答后,它会提示ChatGPT只是一个大语言模型,不适宜用作专业的法律咨询,建议我去寻找专业的法律咨询机构。
B
ChatGPT在仲裁中存在信息安全风险 生成文本有时并不准确甚至可能侵权
南都:不久前一则新闻称,美国一位资深律师用ChatGPT协助办案被“坑”,您如何看待这个事件?
翁键:这个案例我也有注意到。这位律师用ChatGPT搜索案例可以,但是作为一名律师必须是严谨的,没有经自己核实、验证过的东西,就向法庭提交,本身就是一种不严肃的行为,结果证实提供的司法判例都是虚假、杜撰的,现在该律师面临法律处罚。
对人工智能生成的内容,还是要自己再去验证一下准确性甚至是真伪。我认为,当ChatGPT应用于司法领域时,它更适合作为简单、重复和机械工作的辅助工具。
对于具有更高价值的问题发现、法律分析和推理判断等,我们不应该完全依赖于人工智能。
南都:ChatGPT在仲裁中应用是否存在信息安全问题?
翁键:是的。ChatGPT在仲裁中存在着个人隐私保护问题,比如在ChatGPT的使用过程中录入了案件信息以后,这些信息就成为ChatGPT大数据的一部分,在被其他人使用的过程中有可能泄露。其他信息安全问题,还包括商业秘密甚至是国家机密的安全。
南都:社会公众在应用ChatGPT时同样面临信息安全的问题。对于公众来说,还有其他法律风险吗?
翁键:另外就是著作权侵权的问题。比如ChatGPT在生成内容时,有可能引用了他人具有知识产权的资料,用户在使用这些内容时,侵犯了他人的著作权,这些都是可能存在的法律风险。
南都:ChatGPT在法律活动应用中还需要注意哪些问题?
翁键:尽管像ChatGPT这样的生成式人工智能对仲裁或其他法律活动无疑是有帮助的,但它们确实也存在很多不足。除了存在信息泄露的可能,ChatGPT在法律活动应用中还存在若干问题。
ChatGPT是运用算法和大数据,结合用户提供的内容以及互联网上常见的、通常的表述生成出来,而这些“投喂”给GhatGPT的内容本身可能就是不准确甚至完全错误的。因此其生成的内容也必然是不准确的。
同时,法律要求语言的精确运用,尤其是一些专业术语具有特定的含义。这些专业性既体现在法律专业上,也体现在纠纷所涉及的专业领域,比如工程建设、高科技项目或其他特殊的小众的行业。目前,GhatGPT还不具备精确使用专业术语的能力。
目前,我们也还没有看到OpenAI公司按照行业分类对GhatGPT进行专业训练以运用于各个细分领域。
更进一步说,法律个案总是千差万别,一个细节的区别就可能导致裁决结果的不同。而ChatGPT所运用的大数据,代表的是一种普遍的、大概率的结果,无法对个案做出精确的分析和判断。
这是生成式人工智能底层逻辑带来的必然结果。这一缺陷意味着法律实践者在使用ChatGPT时,无论是案例检索、分析研究还是文本起草,都需要特别小心。
此外,ChatGPT可能会助长不道德的法律策略。例如合同一方当事人用ChatGPT生成包含陷阱的合同文本,或在产生纠纷后一方当事人用ChatGPT生成虚假的证据材料等等。
C
人工智能无法把控情理法 在法律工作中应谨慎使用
南都:您认为ChatGPT会完全代替法律工作者吗?
翁键:我觉得完全不需要担忧。ChatGPT无法通过数据和公式计算获得复杂的人类情感和价值判断,无法完全取代仲裁员做出案件裁决,也无法完全取代法官、律师等其他法律工作者。
法律是一门人文社会学科,除了条文本身,有大量的内容需要人去理解判断,包括法律起草的历史背景、当下的社会风俗文化、公共利益、价值取向等。
法官或仲裁员需要根据事实和法律进行判决或裁决,需要考虑社会公共利益的影响,需要考虑伦理、正义、保护弱势群体的权益等因素,这些均需要丰富的人类经验、道德情感和判断能力。有关情理法的东西是人工智能无法把控的。
另外,法律工作需要大量的沟通。律师需要与当事人沟通,包括当事人可能隐瞒或忽略的事实、法律策略的选择、情感的引导等。
庭审程序很复杂,需要管理和组织双方当事人的陈述、举证和辩论,以及相应的证人、证据。仲裁员需要确保程序的公平性和合法性,并做出实时判断、调整和指导,而这些ChatGPT是做不到的。
南都:您认为法律工作者该如何正确看待ChatGPT?
翁键:以ChatGPT为代表的生成式人工智能,它的诞生引起行业如此激烈的讨论,是因为它确实具有划时代意义,它将像互联网一样,深入到工作生活的各方面,深刻影响各行各业。
未来,无论是法官或仲裁员还是律师,在工作中都无可避免地会出现大量人机交互的场景,广大法律工作者要去接受和拥抱新技术,然后合理审慎地让它更好地为我所用。
法律工作者在享受ChatGPT人工智能技术的便利和智能的同时,应牢记其附带的风险,并以更道德、合法和负责任的方式使用它。
同时,在提交材料时,对由人工智能生成的内容做出标识。并且在使用过程中,及时地反馈和纠正,共同使该项技术或类似应用更趋完善。
最后一点,人工智能技术,如ChatGPT,必须被严格监管。政策制定者、大型科技公司和专业人士,必须形成管控的共识并及时制定适当的法律和制度,以期合理规范新技术产生的各种新的法律关系,防止社会公正和伦理道德受到侵蚀。
采写:南都记者 赵青 吴笋林
实习生 林铭溱 受访者供图