谷歌在周四宣布推出一款名为Doppl的实验性新应用,该应用利用人工智能技术帮助用户可视化不同服装在自己身上的穿着效果。这款应用目前已在美国的iOS和Android平台上线。
Doppl旨在让用户在数字化的自己身上虚拟试穿各种服装。该应用的工作原理是首先要求用户上传一张自己的全身照片。然后,用户可以使用不同服装的照片或截图进行虚拟试穿。这些图像可以是用户在二手店或朋友身上看到的服装照片,甚至可以是在社交媒体上浏览时看到的服装截图。
一旦用户选择想要可视化的服装,Doppl就会创建一个虚拟版本的用户穿着该服装的图像。Doppl还可以将这些静态图像转换为AI生成的视频,让用户更好地了解这套服装在现实生活中穿在自己身上的效果。
用户可以保存自己喜欢的造型,浏览所有其他虚拟试穿效果,还可以与他人分享自己的造型。
这家科技巨头表示,新应用建立在Google Shopping最近推出的虚拟试衣功能基础之上。通过在独立应用中推出这一功能,谷歌认为这样可以让该功能更容易访问,同时让人们以有趣和互动的方式探索自己的风格。这也可能帮助谷歌收集更多关于此类应用运作方式的数据,为其在该领域的未来努力提供支持。
虽然谷歌之前就提供过虚拟试衣技术,但早期功能主要专注于在不同模特身上展示商品。通过Doppl,该公司让用户可以在自己身体的动画版本上试穿衣服。
谷歌在博客文章中表示:"我们希望Doppl能帮助你以全新且令人兴奋的方式探索自己的风格。作为Google Labs的实验项目,Doppl还处于早期阶段,可能并不总能准确呈现效果。合身度、外观和服装细节可能并不总是准确的。"
鉴于Doppl是实验性发布,目前尚不清楚谷歌是否或何时计划将该应用推广到其他地区。
好文章,需要你的鼓励
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。