有预测显示,到2028年,更多人将通过ChatGPT和Gemini等大语言模型来发现产品和信息,而非传统搜索引擎。但根据我与康奈尔大学硕士生共同开展的研究,这一转变正在以更快的速度发生。LLM驱动的流量已经开始超越传统搜索——不是在数量上,而是在价值上。
来自LLM的流量转化率比传统搜索高出近9倍。这是自互联网诞生以来搜索领域最大的颠覆。如果您是品牌方或内容发布者,现在是时候调整您的SEO策略了。不过,现在已经没有"搜索"了——它被称为答案引擎优化(AEO)。
**LLM转化率与搜索的终结**
早在今年1月,我就预测传统搜索即将退出历史舞台。仅仅六个月后,这种转变已经显而易见。在我的用户体验研究中,我将购物者分为三类:
**灵感型购物者**——没有明确目标的浏览者。这些购物者通常会花时间在Instagram或TikTok上。
**研究型购物者**——渴望学习和探索"最佳选择"。他们倾向于深入Reddit讨论或观看YouTube评测。
**高意向购物者**——准备购买,但在寻找具体的产品信息。他们会访问品牌网站,仔细查看评价和产品详情页。
很容易看出,现在所有这些需求都可以通过与ChatGPT、Claude、Gemini或Perplexity等LLM对话来满足。
比如您在寻找等渗运动饮料粉。与其扫描博客、观看视频或无休止地滚动页面,您现在可以直接询问ChatGPT——它会提供直接的推荐:
**Tailwind Nutrition**:口味清淡,电解质/碳水化合物平衡良好
**SIS GO电解质**:深受耐力运动员欢迎
**Nuun运动片剂**:便携方便,但碳水化合物含量较低
询问生酮友好的选择时,它会提供更详细的信息——包括成分详情、对比和替代品。
这不是搜索——这是建议。当用户点击这些链接或采取行动时,他们的转化率比普通搜索流量高得多。在我的研究中,LLM生成的流量表现更像个人推荐,而不是关键词查询。但问题在于:如果您的品牌没有被列出,您就是隐形的。客户甚至不会考虑您。
**A/B测试:9倍更好的转化率**
准确的数据很难获得。来自ChatGPT等LLM的流量并不总是留下清晰的轨迹——用户可能只是复制粘贴产品名称,然后前往亚马逊或其他网站。为了获得更好的数据,我们在几个电商网站的站内搜索中创建了类似ChatGPT的体验。
在A/B测试中,我们比较了常规关键词搜索与AI引导的对话式搜索体验。结果令人震惊:转化率提高了近9倍。是的,9倍。
但改变的不仅仅是转化率——人们的搜索方式也在演变。过去,用户输入一两个词,如"相机"。现在,当他们看到更自然和详细的回应时,他们也会做出相应的反应。我们看到这样的查询:"有什么适合野生动物摄影的紧凑型相机可以放进随身行李?"
Semrush用更广泛的数据支持了这一点:
平均查询长度现在是23个词
会话持续超过6分钟
用户期望感觉个性化和人性化的答案
在我们的访谈中,购物者表示他们感到更"被理解",对自己的购买"感觉更好"。这不像搜索引擎,更像从知识渊博的朋友那里得到建议。
如果将这种行为扩展到外部LLM流量——不仅仅是站内——该流量的价值已经可以与SEO流量相媲美。
对品牌而言,这意味着是时候重新思考如何在这些对话中出现了。这就是AEO——答案引擎优化的意义所在。
**这对品牌意味着什么?**
品牌需要行动起来。如果您没有被LLM引用,您就变得越来越不可见。要被LLM收录,您需要了解这些模型如何从内容中学习。
LLM是模式补全引擎。我经常在康奈尔的在线证书课程中使用"生活就像一盒___"的例子。
正确。答案是巧克力。机器通过试错学习正确答案。这种方法叫做掩码。要在LLM的回应中出现,您的内容需要成为其掩码训练数据的一部分。
LLM寻找权威、有帮助和真实的内容。由于它们预测与用户对话中的下一个词,因此偏爱以对话或问答格式编写的内容。
**品牌需要自己的发现层**
对品牌而言,一个新的策略正在出现——AEO。我在这里概述了品牌需要了解的AEO知识。AEO只是开始。有两个更大的变化即将到来——都将深刻影响品牌在AI时代的表现:LLM中的付费广告以及模型上下文协议和代表LLM行动的智能体。未来已经开始。如果您想继续这个话题,请在LinkedIn上联系我。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。