你知道在照片上点击多个编辑选项有多麻烦吗?什么?其实这样做很简单。不过,谷歌认为不然,并为你提供了解决方案:对话式编辑功能,该功能让你可以告诉谷歌你想要的编辑要求,而不必自己动手操作。
谷歌首先在Pixel 10手机上推出了对话式编辑功能,但现在公司正在向美国的Android用户推出这项功能。任何将谷歌账户设置为英语、开启了人脸群组功能并启用位置估算的成人用户都应该可以使用此功能。
要使用对话式编辑功能,首先在编辑器中点击"帮我编辑"。然后你可以使用语音或文本准确说出你想要的编辑内容。该功能使用"先进的Gemini功能"来进行更改。你可以做诸如将陌生人从背景中编辑掉、调亮颜色或消除眩光等操作。它会并排显示原始照片和更新后的照片供你比较。
Q&A
Q1:Google Photos的对话式编辑功能是什么?
A:这是谷歌推出的一项智能编辑功能,用户可以通过语音或文本直接告诉系统想要的编辑需求,而不需要手动操作多个编辑选项。该功能利用先进的Gemini功能来理解用户需求并自动进行相应的照片编辑。
Q2:对话式编辑功能可以进行哪些照片处理?
A:该功能可以进行多种照片编辑操作,包括将背景中的陌生人移除、调整照片颜色使其更亮、消除照片中的眩光等。系统会根据用户的语音或文字描述自动识别并执行相应的编辑任务。
Q3:如何使用Google Photos的对话式编辑功能?
A:使用该功能需要先在照片编辑器中点击"帮我编辑"按钮,然后通过语音或文字描述你想要的编辑效果。目前该功能仅向美国的Android用户开放,需要将谷歌账户设置为英语,并开启人脸群组和位置估算功能。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。