语言是商业、文化以及意识的基石。但 AI 不仅仅使用我们的词语——它正在重塑它们。悄然间、细微中,它正通过侵蚀我们曾经认定的事物:名词,来瓦解思维的架构。
我们曾经认为给事物命名就等同于赋予它力量。给某物一个名词意味着将其与意义、身份和记忆绑定。但在 AI 时代,名词正在消解——不是被禁止,也不是被抹去——而是功能上变得过时。与此同时,我们对现实的把握也开始松动。
AI 与思维的架构
AI 并不以个体事物来看待世界,而是以模式、动作、概率和提示来观察。椅子不再被视为一个物体,而被视为“可以坐的东西”。自我也不再是固定的身份,而是“行为和偏好的集合”。甚至曾经充满神话色彩的品牌也正被重构为动词。你不拥有一个品牌,而是“做”一个品牌。
这种语言转变并非中性,它代表着概念锚点的崩解。在生成式系统中,名词不再是核心,而成了行动的脚手架。这一现象反映出生成式 AI 正在以全新的方式重塑各行各业的交流方式。随着名词的褪去,永久性、作者身份以及固定意义的概念也在逐渐瓦解。
近期研究支持这一趋势。一项题为 Playing with Words: Comparing the Vocabulary and Lexical Richness of ChatGPT and Humans 的研究发现,ChatGPT 的输出词汇多样性明显低于人类写作。特别是名词和特定风格词汇的使用较少,这表明生成式系统倾向于采用可预测和常用的语言,而对出现频率较低的词汇则不予重视。
对 14000000 篇 PubMed 摘要的进一步分析也显示,在 AI 大量采用后,词频分布发生了显著变化。像 “delves” 和 “showcasing” 这样的词语激增,而其他词汇则逐渐衰退——这表明大语言模型已经在大规模上重塑词汇模式。
听起来似曾相识?理应如此。
AI 的哲学先驱: Orwell、Huxley 以及他们预警的未来
要理解这些观点的重要性,不妨回想乔治·奥威尔和阿道司·赫胥黎最著名的作品。奥威尔撰写的《1984》描绘了一个未来的阴郁图景——一个极权政权利用语言作为武器,压制独立思考并篡改历史。
他提出的 Newspeak(新语)概念,是一种经过限制和简化的语言,旨在使异议变得不可想象,这个概念已成为文化中操控性控制的隐喻。
另一方面,赫胥黎的《美丽新世界》构想了一个并非通过明显压迫,而是借由工程化快感、分散注意力和被动从众形成的社会。在他的世界里,人们并非通过暴力,而是通过舒适、娱乐和化学镇静被调教服从。
这两位先驱预见了语言与意义被侵蚀的未来,只不过方式迥异。两人共同绘制了现实可能被重塑的两极:或是通过武力,或是通过放纵。
鲜有人知,乔治·奥威尔曾是阿道司·赫胥黎的学生。在 1910 年代末,奥威尔(当时名叫 Eric Blair)在伊顿公学求学时,赫胥黎曾作为法语教师教他。尽管他们的关系短暂,但却富有预见。几十年后,他们分别创作了定义性反乌托邦著作——《1984》和《美丽新世界》。
读完《1984》后,赫胥黎曾致信奥威尔,传达了一则意味深长的信息:
Whether in actual fact the policy of the boot-on-the-face can go on indefinitely seems doubtful… The future will be controlled by inflicting pleasure, not pain.
无论事实上“脸上长靴”政策是否能无限期持续,都令人存疑……未来将以施加快感而非痛苦来掌控一切。
这正是我们所处的局面。
奥威尔担忧的是以监控与恐怖来实现控制,而赫胥黎担忧的是通过放纵与分散注意力来操控人心。如今的生成式 AI,则披着助人外衣,集二者于一身。它既不进行审查,也不采用严格禁制,而是以诱惑的方式呈现。它不需要 NewSpeak 来否定思想,而是用预测来取而代之。
在《1984》中,语言是被武力武器化的;而在我们这个时代,语言正通过建议性重塑发生改变。眼下,我们面对的不是“人工智能”,而是“人工推断”:这些系统训练的目的不在于真正理解,而在于混搭;不在于推理,而在于模拟。
然而这种模拟带来的更深层损失,是主体间性的丧失。
AI 与主体间性的丧失
人类通过主体间性来学习、成长、构建现实——共享的语境赋予了语言以重量。它让我们能够共享意义,就同一词语达成共识,并透过共同经历构建相互理解。没有这一基础,词语就如同漂浮在空中。
AI 并不参与主体间性。它不共享意义——仅仅是预测输出。然而,当有人向 AI 提问时,他们常误以为答案反映了他们的提问框架。实际上,答案只是平均值的平均值,是理解的统计幽灵。这种理解的幻觉看似精确、彬彬有礼,却空洞无物。
这就是 AI 如何在大规模上改写现实——不是通过强制,而是通过模仿。
结果是什么?那便是原创性在无声无息中悄然流失。名词失去了尖锐性;思想失去了固定锚点;而作者身份逐渐被提示所吞噬。真理也变成了模型中最常见的回应。
AI 与问责制:信任与误传的案例研究
在最近的一个实例中,加航(Air Canada)部署了一款 AI 驱动的聊天机器人来处理客户服务咨询。当一位客户询问有关丧亲票优惠时,聊天机器人自信地编造出一项实际并不存在的政策。航空公司最初试图推卸责任,但法院不予认同。2024 年 2 月,司法机构裁定,加航必须为其聊天机器人提供的错误信息承担责任。
这一事件不仅仅是一处技术失误,更是一场信任危机。AI 生成的文本听起来既合理、乐于助人又有种人情味,但它缺乏基于真正政策、背景以及共享语境的依据。实际上,该航空公司的品牌形象在前后矛盾中受损,这正是当语言生成缺乏主体间性、缺乏监督与摩擦之时所带来的风险。
AI 的语言漂移:数据告诉我们语言衰退的真相
这一现象不仅仅停留在理论层面,现有研究正量化生成式 AI 系统如何改变语言本身的生态。一项题为 Playing with Words: Comparing the Vocabulary and Lexical Richness of ChatGPT and Humans 的研究发现,AI 生成的文本始终采用较为狭窄的词汇,其名词和风格化词汇明显少于人类写作。
进一步分析超过 14000000 篇 PubMed 摘要显示,随着大语言模型的广泛应用,词语使用频率发生了可测量的变化。许多精准、技术性的名词逐渐淡出,而诸如 “delves” 和 “showcasing” 的词汇则显著激增。这种转变并非偶然——而是一种基于统计驱动的语言平坦化趋势,在这种趋势下,标准化、以行动为导向或风格化的词语得到提倡,而细致具体性则被边缘化。
一些研究者将这一现象联结到一个更广泛的问题——“模型崩溃”。随着 AI 模型越来越依赖于包括其自身输出在内的合成数据进行训练,随着时间推移,其性能可能会退化。这形成了一个反馈循环,使得语言变得不够多样化、语义含量降低。最终,词汇、句法以及语义多样性——这构成了意义与表达精准度的基石——出现明显下降。
其意义深远:如果 AI 系统在大规模上弱化了名词的重要性,那么我们承载思想的基本架构——人、地点、身份和概念——正被侵蚀。我们正在目睹人类思维的语法基础被那些不具备真实思考能力的机器所重新衡量。
AI 语言转变对品牌与商业战略的影响
语言精准度的侵蚀对依赖讲故事、品牌塑造及有效沟通的企业影响深远。品牌依靠叙事的一致性构建,以名词、身份和随着时间累积的文化联结作为其支柱。
然而,随着 AI 系统将概率语言和预测性短语作为常态,即使是品牌的声音也难以幸免于收敛。品牌的差异性逐渐消失,信息边界变得模糊。信任不仅变得更难建立,也更容易被模仿。
正如 Forbes 文章所阐述,企业在利用生成式 AI 时必须格外小心,以维护品牌的真实性和声音。市场营销人员可能会发现,他们争夺的已不再是注意力,而是在一片合成流畅中力求保持真实。
此外,AI 驱动的内容平台优化的是参与度,而非实际意义。依赖大语言模型生成面向客户的内容,企业风险在于牺牲其独特性,转向采用统计上“安全”的语言。缺少人类监督的情况下,品牌语言可能会滑向普普通通、概率化且容易被遗忘的局面。
如何在 AI 时代维护意义
拒绝语言平坦化。企业和个人都必须重新掌握语言的目的性。方法如下——以及为何如此重要:
o 如果你不定义你的品牌声音,AI 就会给你一个平均化的声音。 o 如果你不保护合同中的语言,AI 就会将其混搭重构。 o 如果你不精心策划企业文化,AI 就会以统计上看似安全却精神空洞的方式反馈给你。
o 加大对人类创作的依赖:不要将你的声音完全交给模型,用 AI 进行辅助,而非替代。 o 保护语言的原创性:在沟通中鼓励具体化、隐喻以及词汇的多样性,因为名词至关重要。 o 定期审查输出:定期检查 AI 所生成的材料,观察语言是否开始失去锋芒。 o 投资于语言守护:将你品牌的词汇体系视为知识产权(IP),并对其进行明确定义与保护。 o 倡导主体间性:在个人及职业沟通中确保共享语境,因为 AI 可以模拟,但只有人才能赋予真实意义。
摩擦的必要性:为何人类介入必须制衡 AI
摩擦并非人类系统的缺陷,而是一种必需的特性。正是在摩擦中,意义被创造,思想被检验,创新与不确定性展开博弈。自动化固然能够推动经济高速发展,但若没有刻意的停顿——没有人类的介入——我们将冒着丧失那些使我们成为人类的独特特质的风险。而语言正是其中之一。
每一次犹豫、每一个细微差别、每一次词语的选择,都反映出我们的认知、文化和关怀。若抹去这种摩擦,就等于剥夺了人性的温度。AI 能提供速度、流畅性和模式匹配,但它无法替代存在感,而存在感正是意义的栖息之所。
AI 的结束语:铭记意义的呼声
华盛顿大学计算语言学教授 Emily M. Bender 成为了大语言模型中最有原则且富有远见的批评者之一。在她那篇如今广为引用的合著论文 “On the Dangers of Stochastic Parrots” 中,她论证这些系统并非真正理解语言——它们只是在进行混搭。正如她所言,它们就像“随机鹦鹉”:机器生成看似合理的语言,但却缺乏理解和意图。
然而,我们正允许这些“鹦鹉”替我们草拟邮件、撰写广告,甚至影响立法。我们正让那些基于近似数据训练的模型成为沟通、文化和身份的裁决者。
这绝非真正的语言,而是大规模的模仿。当 AI 输出被误认为是真正理解时,意义的底线就开始侵蚀。问题不仅在于 AI 可能犯错,而在于它听起来如此正确,以至于我们停止了质疑。
以优化之名,我们有可能抹去沟通中人性化的质感——我们的隐喻、双关以及那些充满模糊和创造力的瞬间,正是构成语言生命力的源泉。若将这些剥离,只会留下共识安全、规避风险的单调回响。功能上?是的。意义上?远远不够。
风险不仅仅在于 AI 会出错,而在于它的表象如此准确,以至于让我们停止深究、停止追问什么是真实、停止寻找那些只有我们才能表达的词句。
我们不需要更多的词汇,而需要更多的意义。而意义不是生成出来的,而是被铭记的。
当涉及语言与 AI 时,这正是我们未来必须坚守的底线——不仅仅因为它听起来优美,更因为它真切无误。
好文章,需要你的鼓励
OpenAI 按用户需求在 ChatGPT 推出全新 GPT-4.1 及其 mini 与 nano 版本,专注提升编程、指令理解与长文本处理能力,免费及付费用户均可体验。
谷歌 DeepMind 推出的 AlphaEvolve AI 智能体,利用多轮反馈机制优化编程和数学任务,已在数据中心与芯片设计中提效,并重现数学问题的先进解法。
DeepMind 推出的 AI 系统 AlphaEvolve 利用自动评估机制解决数学与科学问题,在数学测试和 Google 数据中心优化中提升效率。虽非颠覆性革新,却能帮助专家腾出精力应对更重要任务。
科技公司 Stability AI 同芯片厂 Arm 合作推出“Stable Audio Open Small”,这是一款基于无版权音库训练、可在智能手机上迅速生成短音频样本的立体声音频 AI 模型,虽仅支持英文提示并存在部分局限,但对研究者和小型企业免费开放。