观点 作为美国经济增长核心领域之一,AI的相关论断与反驳至今仍难以调和。AI公司声称模型正以惊人速度持续迭代,然而来自一线开发者的反馈却表明,AI带来的收益依然被种种弊端所抵消。
AI或许能让你成为效率十倍的程序员,但前提是你愿意花十倍的时间去准备、调试和错误排查。你可以部署AI智能体,但同时还需要另一批AI智能体来监控前者。AI生成的代码需要AI生成的测试用例来应对激增的工作量,而这一切对基础设施又带来了新的压力。
面对如此高的赌注,两极化的观点与商业利益驱动下的宣传共同在AI编程战场上制造了浓厚的迷雾,这并不令人意外。在其他行业,情况更为严峻——缺乏明确的质量指标和可见的批判性分析。如果有一个领域拥有悠久的规则化数据质量依赖传统、透明度要求以及执行真实性和职业标准的框架,当AI在这一领域突然大规模应用时,我们或许能清晰地看到这项技术究竟在做什么。
好消息是:这样的领域确实存在,它就是法律体系。坏消息是:情况并不乐观。
问题的根源在于两个相互叠加、极为危险的因素,而这一组合并不陌生。AI极其擅长生成结构完整的文件,看起来——也确实大多数情况下——像是由人类专家撰写的。但与此同时,AI也会生成并嵌入幻觉性内容,这些内容在外观和语感上与真实信息毫无二致,只是有一个小小的缺陷:它们是假的。
这些问题早已广为人知,其后果也得到了普遍承认。幻觉现象严重削弱了AI的实用价值,因此其输出内容需要经过大量核查。然而,AI生成的内容看起来如此出色、如此令人信服,以至于人们很容易接受AI所许诺的生产力大幅提升,并选择抱着乐观的态度侥幸行事。
这一现象在全球法律系统中的具体表现就是:虚假案例的出现。律师在法庭上的论证依赖于有既有判例支撑的逻辑推理。这体现在书面陈述中,律师会在陈述中引用或摘要与其论点相符的案例,并注明这些案例的档案引用来源。
律师使用AI起草陈述书,并以期望证明的结论为提示词进行生成,这几乎是必然的结果。AI幻觉出那些看似能够支持论点的案例,同样是必然的。部分幻觉内容逃过事实核查,最终出现在法庭上,也是必然的。这种情况最早发生——或至少是首次引发广泛关注——于2023年纽约南区的一起案件。然而,接下来发生的事情,不仅出乎意料,甚至令人咋舌。
律师与法律体系,尤其是与法庭之间,有着一种特殊的关系。一旦律师陈述事实,他们就承担着严格的如实陈述义务,并有责任对所陈述内容进行适当核实。他们是法庭的官员,受职业道德规范的约束。律师也被普遍认为是人,难免犯错,但同样被期望能从错误中汲取教训,不再重蹈覆辙。第一位在含有AI幻觉内容的陈述书上签字的律师,或许还能以"这是一项全新技术,使用诱惑难以抗拒"为由进行辩解,法庭也可能仅发出严重警告,就此了事。
然而,一旦这一消息在法律圈内广泛传播——而法律圈向来以善于传播内部消息著称——"不知情"的借口便再难成立。人们本以为虚假案例的出现不过是低水平的背景噪音,偶有心存侥幸者试图蒙混过关,但所有人都清楚被一个严守司法尊严、拥有近乎无限制裁权力的机构抓住作弊行为的后果。
然而,实际发生的情况更像是一场瘟疫的早期蔓延。就在美国那起备受关注的案件发生六个月后,另一起类似案件出现在伦敦的一个法庭,再次引发了法律界的关注。上周,美国国家公共广播电台(NPR)报道称,法国高等商学院(HEC Paris)已记录到全球约1200起涉及AI幻觉的案例,其中仅美国就有800起。最近某一天,来自十个不同司法管辖区的十起案件同时涌入。据悉,这一数字仍在持续攀升。
这一切的发生,是在部分案件已经引发广泛关注、各地法院不断加大惩处力度、对违规律师开出六位数罚款的背景之下。与此同时,也有提案要求对AI生成的文件进行强制标注,但其实际效果恐怕不容乐观。
法律行业长期以来有一种传统:让初级员工在资源匮乏、几乎得不到上级支持的情况下超负荷工作。在至少一起案例中,下属被要求使用AI生成法律简报,却没有获得用于核查案例的法律数据库访问权限。省钱,对吧?法律行业与其他行业一样存在剥削现象,这并不令人意外。然而,它对AI表现出的那种难以自控的执迷——犹如沉溺于毒品无法自拔——似乎揭示了AI潜藏的危险性。问题持续恶化也充分说明:无论新模型在哪些方面有所改进,幻觉问题都不会就此消失。
据《The Register》了解,负责任的律师表示,使用AI所需的核查时间与其节省的时间大致相当,但如果审慎使用,依然值得。这与AI的宣传口号不符,却与现实相符。针对案例引用进行自动化核查的机制并非无法想象,只是这又回到了AI需要更多支撑才能完成工作的老问题。
请密切关注法律领域的AI幻觉现象。目前,我们仍处于这场"流行病"的早期阶段。聪明的赌注会押在法律体系在AI问题得到修复之前率先关上这扇门,而它最终也将被关上。届时,我们将不得不直面一个更深层的问题:在其他行业、其他组织中,AI正在造成多大的危害?在那些以自我保护代替职业道德、以沉默的默契掩盖透明与真相的地方,答案或许令人忧虑。希望我们能在麻痹大意演变为一场危机之前,找到解决之道。
Q&A
Q1:法律行业中AI幻觉问题有多严重?
A:根据法国高等商学院(HEC Paris)的记录,全球已有约1200起涉及AI幻觉的法律案例,其中仅美国就占800起,且发生频率仍在持续上升。最近曾出现单日同时涌入十个不同司法管辖区案件的情况,问题的严峻程度远超预期。
Q2:律师在法庭上使用AI生成内容为什么会造成问题?
A:AI在生成结构完整、外观专业的法律文件方面表现出色,但它同时会产生"幻觉"内容,即捏造看似真实却根本不存在的案例引用。律师对法庭负有如实陈述的职业义务,一旦提交含有虚假案例的陈述书,将面临严重的职业处分和高额罚款,甚至损害整个诉讼程序的公正性。
Q3:使用AI辅助法律工作有没有正确的方式?
A:据了解,负责任的律师表示,使用AI所需的核查时间与其节省的时间大致相当,但如果审慎使用仍然值得。关键在于必须对AI生成的所有内容进行严格的人工核查,尤其是案例引用部分,不能因为AI输出内容看起来专业就直接采用,盲目信任是导致问题的根本原因。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。