在周二的直播中,OpenAI 首席执行官 Sam Altman 宣布了 ChatGPT 一年多以来首次重大的图像生成功能升级。
ChatGPT 现在可以利用公司的 GPT-4o 模型原生创建和修改图像及照片。GPT-4o 一直是这个 AI 驱动的聊天机器人平台的基础,但直到现在,该模型只能生成和编辑文本,而不能处理图像。
Altman 表示,GPT-4o 原生图像生成功能现已在 ChatGPT 和 OpenAI 的 AI 视频生成产品 Sora 上线,面向该公司每月 200 美元专业版计划的订阅用户开放。OpenAI 表示,该功能将很快向 ChatGPT 的 Plus 用户和免费用户开放,同时也会向使用公司 API 服务的开发者开放。
与其实际替代的图像生成模型 DALL-E 3 相比,具有图像输出功能的 GPT-4o 在生成过程中会"思考"更长时间,以创建 OpenAI 所描述的更准确和更详细的图像。GPT-4o 可以编辑现有图像,包括含有人物的图像——对其进行转换或"修复"前景和背景对象的细节。
据 OpenAI 向《华尔街日报》透露,为了支持新的图像功能,他们使用"公开可用的数据"以及与 Shutterstock 等公司合作获得的专有数据来训练 GPT-4o。
许多生成式 AI 供应商将训练数据视为竞争优势,因此对其相关信息严格保密。同时,训练数据细节也可能引发知识产权相关诉讼,这是公司不愿透露太多信息的另一个原因。
OpenAI 首席运营官 Brad Lightcap 在向《华尔街日报》的声明中表示:"在输出方面,我们尊重艺术家的权利,并且我们制定了相关政策,防止生成直接模仿任何在世艺术家作品的图像。"
OpenAI 提供了一个退出表单,允许创作者请求将其作品从训练数据集中移除。该公司还表示,会尊重网站禁止其网络爬虫收集训练数据(包括图像)的请求。
ChatGPT 升级后的图像生成功能紧随 Google 旗舰模型之一 Gemini 2.0 Flash 的实验性原生图像输出功能之后。这个强大的功能在社交媒体上迅速传播——但并非都是好事。Gemini 2.0 Flash 的图像组件似乎缺乏足够的安全限制,允许用户移除水印并创建包含受版权保护角色的图像。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。