在周二的直播中,OpenAI 首席执行官 Sam Altman 宣布了 ChatGPT 一年多以来首次重大的图像生成功能升级。
ChatGPT 现在可以利用公司的 GPT-4o 模型原生创建和修改图像及照片。GPT-4o 一直是这个 AI 驱动的聊天机器人平台的基础,但直到现在,该模型只能生成和编辑文本,而不能处理图像。
Altman 表示,GPT-4o 原生图像生成功能现已在 ChatGPT 和 OpenAI 的 AI 视频生成产品 Sora 上线,面向该公司每月 200 美元专业版计划的订阅用户开放。OpenAI 表示,该功能将很快向 ChatGPT 的 Plus 用户和免费用户开放,同时也会向使用公司 API 服务的开发者开放。
与其实际替代的图像生成模型 DALL-E 3 相比,具有图像输出功能的 GPT-4o 在生成过程中会"思考"更长时间,以创建 OpenAI 所描述的更准确和更详细的图像。GPT-4o 可以编辑现有图像,包括含有人物的图像——对其进行转换或"修复"前景和背景对象的细节。
据 OpenAI 向《华尔街日报》透露,为了支持新的图像功能,他们使用"公开可用的数据"以及与 Shutterstock 等公司合作获得的专有数据来训练 GPT-4o。
许多生成式 AI 供应商将训练数据视为竞争优势,因此对其相关信息严格保密。同时,训练数据细节也可能引发知识产权相关诉讼,这是公司不愿透露太多信息的另一个原因。
OpenAI 首席运营官 Brad Lightcap 在向《华尔街日报》的声明中表示:"在输出方面,我们尊重艺术家的权利,并且我们制定了相关政策,防止生成直接模仿任何在世艺术家作品的图像。"
OpenAI 提供了一个退出表单,允许创作者请求将其作品从训练数据集中移除。该公司还表示,会尊重网站禁止其网络爬虫收集训练数据(包括图像)的请求。
ChatGPT 升级后的图像生成功能紧随 Google 旗舰模型之一 Gemini 2.0 Flash 的实验性原生图像输出功能之后。这个强大的功能在社交媒体上迅速传播——但并非都是好事。Gemini 2.0 Flash 的图像组件似乎缺乏足够的安全限制,允许用户移除水印并创建包含受版权保护角色的图像。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。