“AI律师”案例造假引发司法信任危机

图片:CTOCIO/Midjourney
当律师开始用ChatGPT写诉状,法庭正在沦为AI幻觉的试验场。
近日,美国怀俄明州地方法院法官凯利•兰金下令,要求一律师事务所的律师解释为何在法庭文件中引用虚假案例,并说明为何不应受到制裁或纪律处分。这已是2023年以来第三起AI生成(捏造)法律文件引发争议的公开案件——司法系统的权威性正遭遇AI技术浪潮的冲击。
AI幻觉制造虚假案例,律师事务所陷入尴尬
案件起源于2023年,涉及沃尔玛和捷森电子自行车公司(Jetson Electronic Bikes)。原告是一名女子、她的丈夫及四名未成年子女,他们指控捷森公司生产的一款悬浮滑板的锂离子电池发生故障并起火,导致他们的住宅被烧毁,多名家庭成员严重受伤。
在今年1月,原告方律师向法院提交了一份“排除动议”,请求法院排除某些证据或论点。然而,法官兰金发现,该文件引用的多个案例根本不存在。“这些案例无法通过Westlaw的编号识别,法院也无法在怀俄明州地方法院的电子档案系统中找到这些案例。”兰金在判决书中写道,并要求所有涉及的律师“详细解释该动议及虚假案例的生成方式”,以及他们在起草或监督该动议时的具体角色。
四天后,涉事律师事务所作出回应,称:“我们内部的人工智能平台在协助律师起草动议时‘幻觉’生成了这些案例。”该律师事务所表示,此事件让他们深感尴尬,并已引发关于人工智能安全培训、实施及未来使用的讨论和行动。“这件事对我们事务所及整个行业而言都是一个警示,提醒大家在迈入人工智能新时代时,应更加谨慎。”
法律科技公司Casetext调研显示,2023年全美至少有17%的律所使用生成式AI工具,但仅23%建立人工复核流程。“多数中小律所把AI当‘外包助理’,却不愿支付核查成本。”该公司CEO Jake Heller坦言。
特朗普也是AI律师“幻觉”的受害者
近年来,律师越来越多地使用AI工具进行法律研究和文件分析。然而,AI在法律工作中的误用并非首次引发争议。
2022年,一名男子起诉阿维安卡航空公司,称自己在一次航班上被金属餐车撞伤。其律师提交的法律文件引用了多个AI编造的案例。然而,在法庭质疑这些案例的真实性后,该律师不仅没有立即承认错误,反而试图狡辩。最终,法院对其处以5000美元罚款。
2024年,特朗普前私人律师科恩在封口费案中,居然提交Google Bard生成的虚假判例,再次引发关注。尽管法院最终未对涉事律师进行处罚,但这种法官口中“极度不专业”的行为,导致了特朗普的辩护策略全面受挫。
“这不是技术故障,而是职业伦理的溃堤。”纽约大学法律伦理教授Rebecca Roiphe指出,“当律师把事实核查权交给算法,等于放弃了法律人的核心职责。”
AI在法律行业的未来:机遇与风险并存
尽管事故频发,AI法律工具的市场仍在狂飙。全球法律科技融资额从2020年的12亿美元增至2023年的43亿美元,AI法律应用的支持者抛出了效率、成本和技术进化论三大论点:
1. 效率革命
– 文档处理:Harvey AI可在12分钟内完成合同审查(人工需4小时);
– 案情预测:Lex Machina通过分析历史判例,给出胜诉率评估(准确度约78%)。
2. 成本杀手
– 英国Allen & Overy律所引入GPT-4后,合同起草成本下降70%;
– 美国LegalZoom利用AI将商标申请服务价格压至199美元(行业平均800美元)。
3. 技术进化论
“AI幻觉是技术早期阶段的必然代价。”法律科技公司ROSS Intelligence创始人Andrew Arruda辩称,“就像自动驾驶需要累积事故数据改进算法,法律AI也需要判例反馈迭代。”
反对者则认为,目前人工智能技术在法律行业的应用仍在探索阶段,虽然其能够提高效率,但若不加审查,其“幻觉”生成的错误信息可能对律师及其客户造成严重后果。
信任崩解:当法庭沦为“AI测谎战场”
一系列事故正在重塑司法系统的技术信任机制:
1. 证据链污染
纽约东区法院已要求律师签署“AI使用声明”,披露生成式工具参与文件起草的比例。但哈佛法学院实验显示,**41%**的律师会隐瞒或弱化AI参与度以规避审查。
2. 对抗性技术军备
- AI检测工具兴起:GPTZero等公司推出“法律文件真实性扫描”服务,收费高达每页5美元;
- 攻防升级:有律所开始用“AI改写AI生成文本”(如Quillbot)以规避检测,形成套娃式造假。
3. 司法成本转嫁
法官助理的工作量因AI核查激增。加州中区法院一名法官助理向虎嗅抱怨:“现在每份动议都要用Westlaw+Google双系统反向验证,案件处理效率反而下降30%。”
临界点:法律人的“奥本海默时刻”
在法律与AI的碰撞中,一场职业身份危机正在发酵:
1. 伦理重构
美国律师协会(ABA)拟修订《职业行为示范规则》,新增条款要求律师“确保技术工具输出的准确性”——这等于将AI幻觉风险纳入执业责任。
2. 技能降级
“年轻律师正在丧失基础法律检索能力。”达维律师事务所合伙人Sarah Reynolds观察发现,“他们更擅长调试AI提示词,却看不懂《联邦证据规则》的条文逻辑。”
3. 行业分化
- 顶级律所:建立内部AI实验室(如Baker McKenzie的Liquid Studio),训练垂直领域模型;
- 中小律所:沦为公共AI工具的“小白鼠”,在成本压力与合规风险间走钢丝。
结语
怀俄明州法官的质询令,或许将被载入法律科技史:当AI开始伪造“法律事实”,人类终于意识到,除了互联网内容生态系统之外,AI对人类专业领域(例如医生、律师、分析师)的内容污染可能比想象得更为严重,后果也更可怕。
参考链接:
[https://storage.courtlistener.com/recap/gov.uscourts.wyd.64014/gov.uscourts.wyd.64014.156.0_1.pdf
第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom
除非注明,本站文章均为原创或编译,未经许可严禁转载。
相关文章: