美国最高法院首席大法官:谨慎对待AI在法律领域的应用

澎湃新闻记者 邵文
2024-01-03 17:07
来源:澎湃新闻

·罗伯茨表示,人工智能有潜力增加贫困的当事人诉诸司法的机会,彻底改变法律研究,并协助法院更快、更低成本地解决案件,同时也带来隐私问题,而当前的人工智能技术无法复制人类的自由裁量决定。

美国最高法院首席大法官约翰·罗伯茨。

当地时间2023年12月31日,美国最高法院首席大法官约翰·罗伯茨(John Roberts)发布年终报告,重点阐述了人工智能在法律体系中可以发挥的积极作用及其构成的威胁。他敦促保持“谨慎和谦逊”的态度。

罗伯茨在13页的报告中表示,人工智能有潜力增加贫困的当事人诉诸司法的机会,彻底改变法律研究,并协助法院更快、更低成本地解决案件,同时也带来隐私问题,而当前的人工智能技术无法复制人类的自由裁量决定。

美国法院正在争论如何应对“幻觉”

罗伯茨在提到填写法律材料时表示,一些人工智能技术可以简化法律申请并节省资金。他写道:“这些工具具有令人欢迎的潜力,可以消除我们法院系统中可用资源与紧急需求之间的任何不匹配。”

“法学教授们带着敬畏和焦虑的心情报告说,人工智能显然可以在法学院的作业中获得B,甚至可以通过律师资格考试。”罗伯茨写道,“人工智能可能很快在法律研究中显得不可或缺。人工智能显然具有巨大的潜力,可以极大地增加律师和非律师等人对关键信息的获得。但同样明显的是,它可能会侵犯隐私并使法律失去人性。”

“我预测人类法官将会存在一段时间。”罗伯茨写道,“但我同样有信心预测,司法工作——尤其是审判层面——将受到人工智能的显著影响。”

罗伯茨的评论是他迄今为止关于人工智能对法律影响的最重要的讨论,同时,美国许多下级法院正在争论,如何最好地适应能够通过律师考试但也容易产生虚构事实的新技术。他们指的是人工智能存在的“幻觉”,即可能“一本正经地胡说八道”。

罗伯茨强调,“任何人工智能的使用都需要谨慎和谦逊。”他提到了一个例子,人工智能的“幻觉”导致律师在法庭文件中引用不存在的案件,说这“总是一个坏主意”。他没有对该事件进行详细说明,只是说这种现象“成为今年的头条新闻”。

例如,美国前总统唐纳德·特朗普的前律师迈克尔·科恩(Michael Cohen)在最近公布的法庭文件中表示,他错误地向律师提供了一个由人工智能程序(谷歌聊天机器人Bard)生成的虚假案件引证,这些引证后来进入了一份正式的法庭文件。相关律师的其他例子,包括在法律摘要中出现人工智能生成的“幻觉”内容的案件也有记录。

上个月,美国新奥尔良的一家联邦上诉法院公布一项规则,旨在规范出庭律师使用OpenAI的ChatGPT等生成式人工智能工具。这可能是美国13家上诉法院中首次提出类似规则的法院。美国第五巡回上诉法院提出的拟议规则也将要求律师证明,他们要么不依赖人工智能程序起草摘要,要么人类在法庭文件中审查了人工智能生成的任何文本的准确性。

法律裁决仍然需要运用人类判断

罗伯茨长期以来一直对法律与科技的交叉感兴趣。他在一些案件的裁决中撰写了多数意见,这些裁决通常要求政府必须获得搜查令,才能搜查从被捕者手中没收的手机上的数字信息,并收集有关手机公司客户的大量位置数据。

2017年,罗伯茨被问到他是否可以“预见有一天,由人工智能驱动的智能机器将协助法庭的事实调查,甚至更有争议的司法决策?”他回答说是的。“这一天已经到来。”他说,“这给司法部门的行事方式带来了巨大压力。”

罗伯茨在年终报告中写道,这种压力有增无减。“在刑事案件中使用人工智能评估飞行风险、累犯和其他涉及预测的自由裁量决定,引起了人们对正当程序、可靠性和潜在偏见的担忧。”他写道,“至少在目前,研究表明,公众一直认为存在‘人类与人工智能的公平性差距’,这反映了一种观点,即人类的裁决尽管存在种种缺陷,但比机器吐出的任何结果都要公平。”

罗伯茨总结道:“法律裁决通常涉及灰色地带,仍然需要运用人类判断。”“例如,法官在量刑时衡量被告陈述的诚意。”他写道,“细微差别很重要:颤抖的手、颤抖的声音、语调的变化、一滴汗、片刻的犹豫、眼神交流的短暂中断都可能带来很多变化。大多数人仍然相信人类而不是机器来感知这些线索并得出正确的推论。”

罗伯茨写道,上诉法官也不会很快被取代。“许多上诉裁决都取决于下级法院是否滥用自由裁量权,这一标准本质上涉及特定事实的灰色地带。”“其他人则关注有关法律应如何在新领域发展的开放性问题。人工智能主要基于现有信息,这些可以提供信息,但不能做出此类决定。”

    责任编辑:郑洁
    校对:栾梦