麦当劳公司一直努力通过技术提供更好的客户体验(也有人认为这是为了降低人工成本)。可以理解,毕竟麦当劳在快餐行业早已失去了品牌本身的“调性”吸引力,要想继续生存就必须寻找新的空间。而作为这一转型目标的重要组成部分,麦当劳开始在各家连锁店内部署触摸屏点餐器。
利用这一前沿技术,麦当劳给出了餐饮行业最具吸引力的服务之一——AI支持下的得来速汽车快取体验。
根据《纽约时报》的报道,麦当劳公司在某些分店中正在测试一种新型方案,用于在客户开车驶入时识别车牌,并通过这一信息提供AI支持下的菜单推荐选项。此项技术(需要首先获得客户的许可)会参考客户以往的订单历史记录,从而在触摸屏上默认提供客户可能比较喜爱的餐点项目。
CitySquare Partners公司总裁Michael Terpkosh在最近的一次在线讨论中表示,“有些人认为这是一种巨大的便利,也有些人认为这样的渗透方式令人毛骨悚然。但对麦当劳来说,这只是一种加快得来速汽车取餐速度的尝试,也有望让客户们以更积极的心态看待AI技术的实际应用。但是,如果客户刚刚买下一辆二手车或者是换了辆装有新牌的车子,那么这种所谓的便利性反而可能带来麻烦。”
Terpkosh的观点得到不少人的赞同,人们担心车牌这一因素对客户来说可能太过敏感。
What Brands Want负责人Michael La Kier表示,“个性化与令人毛骨悚然之间存在着一条明确的界线,而只有消费者自己才能定义这条界线究竟在哪。隐私正受到越来越高的关注,虽然麦当劳的尝试可能并没有什么危害,也能让连锁门店提高备餐效率,但最终结果还是得由消费者说了算。”
顾问Ken Lonyai指出,好消息是,麦当劳会首先征求客户的意见,这是个不错的开端。
Lonyai指出,“麦当劳做得很对,他们会首先询问客户是否愿意利用AI提升自己的订餐体验。目前,即使是那些规模最大的数字服务供应商,往往也缺少这种最基本的隐私尊重。”
这套解决方案在部分麦当劳门店内还进化出了新的形态,即在得来速点餐触摸屏中添加新的个性化元素,可根据天气、等待时间以及餐品受欢迎程度等因素进一步调整产品推荐。麦当劳方面表示,推荐算法已经在一定程度上提升了订单量,且各美国本土连锁店计划在今年年底之前全面普及这种新型技术。
尽管麦当劳方面表示订单数量有所上升,但也有人质疑消费者对于此类AI辅助技术的实际反应。
Advanced Simulations公司执行合伙人Stephen Needel写道,“从批评的角度来讲,对于那些需要经常开车去麦当劳门店的消费者,他们面临的可能是比隐私更严重的问题。我认为这些老主顾可能并不想要这些所谓个性化推荐。”
Kizer & Bender公司消费人类学家Georganne Bender则写道,“大家肯定都被问到过「要不要再加份薯条?」这其实是种很糟糕的体验,多数消费者并不想受到打扰。”
此外,这项特殊的创新方案给客户带来的真是改善吗?这同样是个悬而未决的问题。
顾问Ken Morris写道,“麦当劳需要找到减少排队时间的方法,而非通过排队销售来增加排队时间。更好的办法是主推在线订餐,同时结合车牌识别与电话识别技术,通过分段处理在线订单以减少等待时间,从而加快车流速度。”
说了这么多负面意见,也有不少人对智能驱动业务解决潜在问题的前景持乐观态度。
Software AG公司全球零售行业总监Oliver Guy写道,“这种新技术让客户能够在抵达门店后快速宣示自己的到来,为什么就不行呢?大而化之,当每一份订单都能以这样的方式来处理,那么一天下来的客户体验绝对会大有不同。”
StoreStream Metrics公司总裁Adrian Weidmann总结道,“我们都曾经无数次盯着麦当劳的菜单,然后做出跟之前20次没什么区别的选择!最好的解决方案当然是通过可用信息加快服务速度,这对麦当劳来说也是一项重要的业务指标。”
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。