我们都曾感觉到正在阅读的内容可能是由大语言模型生成的——但要准确判断却非常困难。去年有几个月,大家都认为"delve"或"underscore"这类特定词汇能暴露AI模型的身份,但证据并不充分,随着模型变得更加复杂,这些标志性词汇也变得更难追踪。
但事实证明,维基百科的编辑们在标记AI生成文本方面已经变得相当擅长——该团队公开发布的"AI写作迹象"指南是我发现的最佳资源,能帮助确认你的怀疑是否有根据。(感谢诗人Jameson Fitzpatrick在X平台上分享了这份文档。)
自2023年以来,维基百科编辑一直致力于处理AI提交的内容,他们称这个项目为"AI清理项目"。由于每天有数百万次编辑提交,有大量材料可供分析,以典型的维基百科编辑风格,该团队制作了一份既详细又有充分证据支撑的实地指南。
首先,该指南证实了我们已知的事实:自动化工具基本无用。相反,指南重点关注在维基百科上罕见但在整个互联网上常见的习惯用法和措辞(因此在模型的训练数据中很常见)。根据指南,AI提交的内容会花大量时间强调某个主题为什么重要,通常使用"关键时刻"或"更广泛的运动"等通用术语。AI模型还会花很多时间详细描述次要媒体报道,以使主题显得值得关注——这是你在个人简历中会期待看到的内容,但不是来自独立来源的。
指南标出了一个特别有趣的怪癖,即在尾部条款中含糊地声称重要性。模型会说某个事件或细节"强调了某事的重要性",或"反映了某个一般想法的持续相关性"。(语法专家会知道这是"现在分词"。)这有点难以准确定义,但一旦你能识别它,你会发现它无处不在。
还有一种倾向于使用模糊的营销语言,这在互联网上极其常见。风景总是优美的,景色总是令人惊叹的,一切都是干净现代的。正如编辑们所说,"这听起来更像电视广告的文字稿。"
这份指南值得完整阅读,但我看完后印象深刻。在此之前,我会说大语言模型的写作风格发展太快,难以确定。但这里标记的习惯深深嵌入在AI模型的训练和部署方式中。它们可以被伪装,但很难完全消除。如果公众在识别AI文本方面变得更加精明,可能会产生各种有趣的后果。
Q&A
Q1:维基百科是如何处理AI生成内容的?
A:自2023年以来,维基百科编辑启动了"AI清理项目",专门处理AI提交的内容。由于每天有数百万次编辑提交,编辑们积累了大量经验,并制作了详细的"AI写作迹象"指南来帮助识别AI生成的文本。
Q2:AI写作有哪些典型特征?
A:AI写作通常会过度强调主题重要性,使用"关键时切"等通用术语;详细描述次要媒体报道以显得重要;频繁使用现在分词结构如"强调重要性";倾向于使用模糊的营销语言,如"优美的风景"、"令人惊叹的景色"等。
Q3:自动化工具能有效检测AI写作吗?
A:根据维基百科指南,自动化工具基本无用。更有效的方法是识别AI模型的写作习惯和措辞特点,这些特征源于模型的训练数据,虽然可以被伪装但很难完全消除。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。