谷歌在周四宣布推出一款名为Doppl的实验性新应用,该应用利用人工智能技术帮助用户可视化不同服装在自己身上的穿着效果。这款应用目前已在美国的iOS和Android平台上线。
Doppl旨在让用户在数字化的自己身上虚拟试穿各种服装。该应用的工作原理是首先要求用户上传一张自己的全身照片。然后,用户可以使用不同服装的照片或截图进行虚拟试穿。这些图像可以是用户在二手店或朋友身上看到的服装照片,甚至可以是在社交媒体上浏览时看到的服装截图。
一旦用户选择想要可视化的服装,Doppl就会创建一个虚拟版本的用户穿着该服装的图像。Doppl还可以将这些静态图像转换为AI生成的视频,让用户更好地了解这套服装在现实生活中穿在自己身上的效果。
用户可以保存自己喜欢的造型,浏览所有其他虚拟试穿效果,还可以与他人分享自己的造型。
这家科技巨头表示,新应用建立在Google Shopping最近推出的虚拟试衣功能基础之上。通过在独立应用中推出这一功能,谷歌认为这样可以让该功能更容易访问,同时让人们以有趣和互动的方式探索自己的风格。这也可能帮助谷歌收集更多关于此类应用运作方式的数据,为其在该领域的未来努力提供支持。
虽然谷歌之前就提供过虚拟试衣技术,但早期功能主要专注于在不同模特身上展示商品。通过Doppl,该公司让用户可以在自己身体的动画版本上试穿衣服。
谷歌在博客文章中表示:"我们希望Doppl能帮助你以全新且令人兴奋的方式探索自己的风格。作为Google Labs的实验项目,Doppl还处于早期阶段,可能并不总能准确呈现效果。合身度、外观和服装细节可能并不总是准确的。"
鉴于Doppl是实验性发布,目前尚不清楚谷歌是否或何时计划将该应用推广到其他地区。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。