Cisco 的研究显示,尽管 agentic AI 的优势显而易见,但人际联系仍然至关重要,且健全的治理机制是不容妥协的。
迈向 agentic AI 未来:agentic AI 如何改变客户体验 该研究调查了 7,950 位在营业额至少为 1,000万美元的机构中担任业务和技术决策者,其中 55% 的受访者来自营业额至少为 1 亿美元的机构。访谈在 30 个市场进行,受访者涵盖 IT、制造业、金融服务、零售、商务服务、工程、建筑、医疗保健、交通以及媒体和通信等多个行业。所有受访者均在与 B2B 技术企业提供的客户体验服务和支持互动的岗位上工作。
报告认为,agentic 客户体验的未来将呈现这样一种情景:客户无需对新的支持人员重复描述情况,问题在最终用户体验之前便已解决,且所有互动均根据个体需求和业务成果量身定制。尽管其优势显而易见且极具吸引力,Cisco 指出各机构采用 agentic AI 的准备情况仍然模糊不清。
同时,报告探讨了尽管客户渴望收获 agentic AI 带来的收益,他们在与 AI 代理而非人与之互动时的舒适度问题,以及如果系统未按计划运作,会对客户关系造成何种影响。
Cisco 表示,这些发现既证实了一些先入为主的看法,同时也彻底挑战了其他观点。报告指出,虽然 AI 正以惊人的速度发展,几乎改变了我们工作、生活和沟通的各个方面,但它并未预见到 AI 对客户预期所产生的涟漪效应,以及技术供应商——许多正在使用 agentic AI 改善客户体验的初期阶段企业——迫切需要加快转型战略。
Cisco 提出的三个关键结论如下。首先,是 agentic AI 带来的好处与日益旺盛的需求。93% 的全球受访者认为,该技术将使 B2B 技术供应商能够提供更个性化、主动及预测性的服务,从而提高生产力并实现成本节约。这一需求不断增强,56% 的受访者预计在 12 个月内,其客户体验互动将由 agentic AI 处理,而这一比例在三年内将跃升至 68%。
其次,尽管对 AI 充满热情,但人仍然需要人与人之间的联系。报告强调,客户希望将 agentic AI 的高效与人际互动相结合,从而优化客户体验。约 96% 的受访者指出,在与 B2B 技术合作伙伴互动时,人际关系至关重要,因此实现人机协同已成为当今领导者面临的首要挑战。
第三,客户深知必须负责任地部署 AI。99% 的受访者认为,技术合作伙伴须展现出健全的治理机制,以确保 agentic AI 的伦理使用。他们要求透明度、安全性以及致力于消除数据偏见的承诺。
Cisco 高级副总裁兼首席客户体验官 Liz Centoni 表示,研究发现“压倒性的热情”与对 agentic AI 驱动客户体验的期待并不令人惊讶,但其发展速度确实出乎意料。她说:“业务和技术决策者期望他们的技术合作伙伴较预期更快地迈向 agentic AI 未来。客户体验正进入一个新时代,agentic AI 正作为引领这一变革的核心力量。”
她进一步指出:“agentic AI 将从根本上改变服务的本质,使客户体验团队能够在每个客户接触点上实现个性化、主动和预测性的互动。我们现在能够实现终极目标:让每位客户都感觉自己是唯一的客户。”
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。