据科技分析公司Gartner研究显示,AI数据正迅速成为典型的"垃圾进,垃圾出"问题。这是因为企业的AI系统和大语言模型正被大量未经验证的、AI生成的不可信内容所淹没。
你可能更熟悉"AI垃圾内容"这个概念。虽然对普通用户来说只是令人厌烦,但对AI系统而言却是致命的,因为它会用虚假数据毒害大语言模型。结果就是AI界所称的"模型崩溃"。AI公司Aquant对这一趋势的定义是:"简单来说,当AI基于自身输出进行训练时,结果可能会进一步偏离现实。"
然而,我认为这个定义过于温和。这不是"可能"的问题——使用劣质数据,AI结果"必然"会偏离现实。
这个问题已经显现。Gartner预测,到2028年,50%的企业将在数据治理方面采用零信任态度。这些企业将别无选择,因为未经验证的AI生成数据正在企业系统和公共资源中大量传播。
分析师认为,企业不能再默认数据是人类生成的或可信赖的,必须对数据进行身份验证、验证和追踪数据来源,以保护业务和财务成果。
你试过验证AI生成的数据吗?这并不容易。虽然可以做到,但AI素养并不是一项常见技能。
正如IBM杰出工程师Phaedra Boinodiris最近告诉我的:"仅仅拥有数据是不够的。理解数据的上下文和关系才是关键。这就是为什么你需要跨学科的方法来决定什么数据是正确的。它是否代表了我们需要服务的所有不同社区?我们是否理解这些数据是如何收集的关系?"
更糟糕的是,垃圾进垃圾出现在以AI规模运行。这种情况意味着有缺陷的输入可能会通过自动化工作流程和决策系统级联传播,产生更糟糕的结果。是的,没错,如果你认为今天的AI结果偏见、幻觉和简单的事实错误已经很严重,那就等着看明天的情况吧。
为了应对这一担忧,Gartner表示企业应该采用零信任思维。零信任最初是为网络开发的,现在正被应用于数据治理以应对AI风险。
Gartner建议许多公司将需要更强的机制来验证数据源、验证质量、标记AI生成的内容,并持续管理元数据,以便了解他们的系统实际在消费什么。
那么,到2028年AI还会有用吗?当然会,但确保它有用且不会走向错误答案的道路,将需要大量优秀的传统人工工作。不过,这个角色至少将是所谓AI革命产生的新工作机会。
Q&A
Q1:什么是AI模型崩溃?
A:模型崩溃是指当AI基于自身输出进行训练时,结果会进一步偏离现实的现象。这是因为大语言模型被大量未经验证的、AI生成的不可信内容所淹没,导致AI系统被虚假数据"毒害"。
Q2:为什么企业需要采用零信任数据治理?
A:因为未经验证的AI生成数据正在企业系统和公共资源中大量传播,企业不能再默认数据是人类生成的或可信赖的。Gartner预测到2028年,50%的企业将采用零信任态度进行数据治理。
Q3:如何解决AI数据质量问题?
A:需要更强的机制来验证数据源、验证质量、标记AI生成的内容,并持续管理元数据。同时需要跨学科的方法来决定什么数据是正确的,理解数据的上下文和关系,确保数据代表需要服务的所有不同社区。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。