法律行业“AI幻觉”加剧,美多名律师因引用虚假内容而遭处分
法律行业“AI幻觉”加剧,美多名律师因引用虚假内容而遭处分
话说回来,法律行业的“AI幻觉”问题,最近可是闹得有点大。根据路透社2月19日的报道,美国一家规模不小的个人伤害律师事务所——Morgan & Morgan,就向自家超过一千名律师发了一封紧急邮件。邮件的核心内容就一个警告:当心,人工智能会编造根本就不存在的判例。谁要是在法庭文件里用了这些虚构内容,饭碗可能就保不住了。
这封邮件可不是空xue来风。事情的起因,是怀俄明州的一位联邦法官最近差点要对这家事务所的两名律师进行制裁。怎么回事呢?原来,这两位律师在受理一起起诉沃尔玛的案子时,引用的判例竟然是假的。
其中一位律师后来在法庭文件里承认,自己用了一款能“创造”案件的AI程序,并为这个无意中犯下的错误道了歉。这可不是孤例。路透社的调查揭示了一个趋势:过去两年,AI在法律文件中生成虚假信息的问题,已经导致全美多个法院,至少对七起相关案件里的律师提出了质疑或纪律处分。新技术带来的困扰,实实在在地摆在了诉讼双方和法官的面前。
当然,生成式AI技术的进步,对法律行业的吸引力是明摆着的。它能大幅缩减律师的研究和撰写时间,效率提升肉眼可见。所以,越来越多的律所选择与AI供应商合作,或者干脆自己开发AI工具。汤森路透的一项调查就显示,去年有高达63%的律师表示在工作中用过AI,其中还有12%的人已经用成了习惯。
但是,凡事都有两面。生成式AI有个出了名的特点,就是能“无比自信地编造事实”。法律专家们反复提醒:律师用AI,必须打起十二分精神。原因在于,AI的工作原理是基于海量数据学习统计模式来生成内容,它的任务是“生成看起来合理的文本”,而不是“验证事实的准确性”。这就导致它有时会像产生“幻觉”一样,编造出有模有样却完全虚假的信息。
这里就触及了问题的核心:律师的道德规范。规则白纸黑字,律师必须对自己提交给法庭的任何文件负全部责任,并且有义务进行核实。如果做不到,纪律处分就在所难免。美国律师协会在去年也向全体会员明确了这一点:即便是通过AI生成的“无心之失”,这项责任义务也绝不改变。
用萨福克大学法学院院长、同时也是倡导利用AI提升法律工作效率的专家Andrew Perlman的话来说,这就叫万变不离其宗:“即便法律研究工具发生了变化,后果也没有改变。”
他的结论直白而有力:“当律师不加核实地使用ChatGPT或任何生成式AI工具,结果捏造了引用依据时,这就是不称职。事情就这么简单。”
