宝洁公司表示,各组织机构应该重新思考其运营方式,以更好地利用生成式 AI 带来的创新机遇。
这家消费品巨头多年来一直对 AI 保持浓厚兴趣,最近还开展了一项研究来评估该技术对其运营的潜在价值。
在哈佛商学院 (HBS) 的部分资金支持下(该校自 2023 年起接受宝洁公司的资助),来自哈佛商学院、沃顿商学院、法国 ESSEC 商学院和宝洁公司的专家们对 776 名负责实际产品创新任务的专业人士进行了研究。
该研究的目标是确定人类员工在有无 AI 协助的情况下,无论是个人还是作为产品开发团队成员时的表现如何。参与者被要求开发一个新产品或服务,以解决其业务部门内的实际需求。
研究主要探讨了三个问题:
生成式 AI 是否能提供与人类团队相当的性能提升?
生成式 AI 是否能扩展缺乏专业知识的员工的经验?
生成式 AI 是否能提供类似于人与同事协作时的社交体验?
研究结果大多是积极的。这倒也不令人意外。
研究发现:"我们的研究表明,AI 复制了许多人类协作的优势,充当着'赛博团队成员'的角色。个人在 AI 协助下能够产出与双人团队相当质量水平的解决方案,这表明 AI 确实可以承担某些协作功能。"
研究人员 - Fabrizio Dell'Acqua、Charles Ayoubi、Hila Lifshitz、Raffaella Sadun、Ethan Mollick、Lilach Mollick、Yi Han、Jeff Goldman、Hari Nair、Stewart Taub 和 Karim Lakhani - 还发现,生成式 AI 协助可以让个人以类似于咨询同事的方式"弥补知识差距"。
最后,他们发现与生成式 AI 助手合作比单独工作更令人情感满足。作者指出:"与单独工作相比,专业人士在与 AI 互动时报告了更多积极情绪和更少消极情绪,这与传统上与人类团队合作相关的情感收益相匹配。"
值得注意的是,哈佛商学院此前的研究已经得出结论:与 AI 模型互动可以减少孤独感。
我们不禁要思考,研究参与者自我报告的情感反应是否源于自我欺骗。AI 行业持续将其产品拟人化,但事实仍然是这些系统基于大量数据产生向量数学预测。如果我们接受论文中"AI 可以替代某些通常与团队合作相关的情感收益"的观点,我们或许也可以赞美办公室里那台安静但给力的打印机散发的温暖 [在一年中极少数真正工作的时候 – 编者注]。
对机器的抵触
并非所有人都愿意毫无疑虑地接受 AI 帮助。2021 年一项关于人机团队协作的研究 [PDF],题为"当人类认为他们的队友是 AI 时会发生什么?对人类与自主系统协作的调查",发现人机混合团队的表现往往不如全人类团队。这部分源于缺乏信任,这种本能在面对容易出错的模型时很有用,而宝洁项目中对此仅略有提及。
但假设 AI 达到了某种足够可靠的水平,宝洁显然对 AI 充满热情。
宝洁首席研究创新官 Victor Aguilar 在一份声明中表示:"这项研究证实了我们长期以来的猜测:AI 是创新的游戏规则改变者。无论员工是独立思考还是与他人协作,AI 都能提供强大的助力,释放新想法并加快我们的创新速度。我们期待继续在产品开发探索中测试 AI,以及我们能够释放的强大影响力。"
《The Register》期待看到 AI 在协助创新方面的能力能够体现在宝洁旗下的品牌上,如品客薯片、欧乐-B、旧司派、吉列和 Metamucil。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。