昨晚,我在无数个Pinterest图板和购物网站上浏览,只为给闺蜜的订婚派对挑一件合适的礼服。刷了很久之后,我最终决定穿一件自己已经有的衣服。于是我打开手机里的相册,翻找之前穿过的正式场合照片来寻找灵感。
如果你也常常这样做(我至少每周一次),谷歌相册(Google Photos)推出的一项全新AI功能或许能帮上大忙。该功能可以自动识别并整理你在相册中出现过的服装,将它们归类成一个数字衣橱,方便你随时搭配、混搭,甚至虚拟试穿。
这项Google Photos衣橱功能将于今年夏天开始推出,首先登陆Android系统,随后是iOS。
谷歌AI衣橱功能是如何运作的
衣橱功能通过AI扫描你相机胶卷中的照片,根据你过去穿过的服饰自动生成一个数字衣橱。在这个已保存的服装库中,你可以按类别筛选,例如"珠宝配饰"或"上衣",快速定位某件具体单品。
谷歌还似乎借鉴了Pinterest的思路,加入了创建数字灵感板(mood board)的功能。你不再需要把整个衣柜翻出来,试穿十几套衣服发给朋友征求意见,而是可以利用衣橱功能将不同单品自由搭配成造型方案,并保存为可分享的灵感板。这些灵感板还可以按不同场合或主题分类保存,例如"婚礼宾客"或"日常通勤"。
此外,衣橱功能还支持虚拟试穿,帮你节省穿搭时间。你可以从已保存的服装库中选取单品,点击"试穿"即可预览上身效果。不过需要注意的是,AI并不能真正识别服装的尺码或剪裁方式,因此虚拟试穿呈现的效果只是一个大致参考,并非精准还原。
去年,谷歌曾在搜索功能中推出了一项AI驱动的试穿功能,但彼时仅限于你正在考虑购买的新衣,无法用于已有的服装。这项技术的底层原理是利用Nano Banana等AI图像生成模型,推断你穿上特定服装后的大致样貌。谷歌表示,用户上传的试穿图像不会用于AI模型训练,也不会用于其他谷歌服务或出售给第三方。
CNET记者Abrar Al-Heeti去年测试搜索试穿功能时发现,该功能确实会生成裸露手臂的效果来展示无袖连衣裙。三星Galaxy S26和谷歌Pixel手机上有一项类似功能,名为"Find the Look"(找同款),已整合至"圆圈搜索"(Circle to Search)功能中,允许用户对截图或照片直接发起搜索,快速预览穿着效果。
Q&A
Q1:Google Photos的衣橱功能是怎么运作的?
A:衣橱功能通过AI自动扫描你相册中的照片,识别并整理你过去穿过的服装,生成一个数字衣橱。你可以按"上衣""珠宝配饰"等类别筛选单品,也可以将不同单品自由搭配成造型方案,保存为可分享的灵感板,还支持虚拟试穿功能来预览上身效果。
Q2:Google Photos的虚拟试穿功能准确吗?
A:准确度有限。AI并不能真正识别服装的尺码或剪裁方式,因此虚拟试穿效果只是一个大致参考,并非精准还原实际穿着效果。它更适合作为搭配灵感参考,而非替代真实试穿体验。
Q3:谷歌会用我上传的试穿照片来训练AI模型吗?
A:不会。谷歌明确表示,用户上传用于试穿功能的图像不会被用于AI模型训练,也不会用于其他谷歌服务,更不会出售给任何第三方,用户的隐私数据受到保护。
好文章,需要你的鼓励
无人机食品配送服务商Flytrex与全球知名披萨连锁品牌Little Caesars宣布合作,推出全新Sky2无人机,最大载重达4公斤,可一次配送两个大披萨及饮料,满足全家用餐需求。Sky2支持最远6.4公里的配送范围,平均从起飞到送达仅需4.5分钟。首个试点门店已在德克萨斯州怀利市上线,并实现与Little Caesars订单系统的直接集成。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
法国社会住房项目ViliaSprint?已正式完工,成为欧洲最大的3D打印多户住宅建筑,共12套公寓,建筑面积800平方米。项目由PERI 3D Construction使用COBOD BOD2打印机完成,整体工期较传统建造缩短3个月,实际打印仅用34天(原计划50天),现场操作人员从6人减至3人,建筑废料率从10%降至5%。建筑采用可打印混凝土,集成光伏板及热泵系统,能源自给率约达60%。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。