人工智能正在持续推动奢侈品行业发展,通过超个性化优化消费者体验,并在内容创作的全面需求中提升效率。
LVMH在巴黎年度科技盛会Viva Tech期间举办仪式,宣布第九届创新奖获奖者。该集团与众多科技初创公司合作,通过在其生态系统内共同开发项目帮助它们扩大规模,该奖项彰显了其对塑造奢侈品未来人才的持续承诺。
今年的竞赛采用了比以往更精简的形式,专注于LVMH生态系统内的具体项目,将投资回报率置于核心位置。三个类别的获奖者——"最佳影响奖"、"最佳商业奖"和"最具潜力奖",因与特定品牌合作实现的解决方案而获得认可。
美国公司Kahoona因与迪奥的合作获得"最佳商业奖",该奖项表彰最有效推动业务增长和运营转型的解决方案。据LVMH介绍,Kahoona针对匿名在线访客的实时预测受众细分解决方案"将个性化客户体验提升到前所未有的水平"。
Kahoona的AI工作原理
首席执行官加尔·拉波波特描述了他基于AI的技术如何通过"模式识别"识别包括客户意图、人口统计和价格点在内的各种标准,分析"数字肢体语言"并将这些洞察付诸行动,以路由和优化每个客户旅程。
法国初创公司Genesis因与酩悦轩尼诗的合作获得"最佳影响奖"——一个数据驱动的数字工具,用于测量、监控和改善土壤健康。该奖项表彰推进可持续发展的技术,集团指出该解决方案在"LVMH生态系统内具有重要的复制和发展潜力"。
OMI因与娇兰的合作获得"最具潜力奖"。联合创始人兼首席执行官雨果·博伦斯坦将其内容创作工作室描述为"法国3D AI先驱"——本质上是从3D模型创建高质量视觉效果的更快速且更具成本效益的方式。OMI还与欧莱雅集团等众多公司合作,参与后者的生成式AI内容平台CREAITECH。
为什么AI内容创作成为王道
虽然AI已从趋势发展为行业标准,但其最普遍的应用案例可能是内容创作。
在VivaTech期间,欧莱雅宣布与英伟达合作"释放AI在美容多个方面的潜力"。该集团将利用英伟达AI企业平台快速开发和部署AI,如扩展前述3D数字产品渲染,以及"提高消费者参与度和转化率的个性化营销和广告"。
获奖的LVMH创新奖解决方案和其他12个参选方案在Viva Tech的LVMH梦境展馆中展示。
路易威登展示了巴黎工作室Ok C'est Cool的突破性创新,该工作室开发了一个专有的生成式AI驱动内容创作工具,利用LoRA低秩适应(一种用于将机器学习模型适应特定用途的技术)。
它本质上是训练AI精确再现超特定的品牌细节,如纹理,使其能够在一天内生成数十张图片。它与预先存在的3D建模图像配合使用,在活动中施加变化以提高效率和极致保真度。
Ok C'est Cool联合创始人马克·奥格斯表示,虽然开源技术已经使更基础的内容复制民主化,但LVMH生产的任何内容都必须超越标准,以符合奢侈品集团要求的卓越标准。
他补充说,内部化解决方案对于保护数据主权也至关重要。
LVMH梦境展馆及其他AI应用
路易威登还展示了与3D扫描专家、丹麦初创公司Rigsters的合作,而Rimowa揭示了与法国初创公司Solaya在其二手RE-CRAFTED行李箱的2D和3D内容创作方面的合作。它利用AI和高斯溅射的组合,使用简单的智能手机扫描产生高质量资产——据创始人马西莫·莫雷蒂介绍,这种资源精简的方式可以让公司内任何人在世界任何地方完成。
在宝格丽,意大利公司Maize展示了其用于大型语言模型(LLM)的综合AI技术。Maize开发了一个定制的教育和对话解决方案,优化品牌的书面内容,在所有沟通媒介中保持语调的完整性。
在LVMH梦境展馆之外的AI初创村(尽管仍在LVMH大家庭内)是生成式AI驱动的3D资产管理平台Power XYZ。它与平价奢侈配饰品牌Polène合作,该品牌获得了LVMH/阿尔诺家族旗下基金L Catterton的投资。
好文章,需要你的鼓励
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。