Cohere for AI(AI 创业公司 Cohere 的非营利研究实验室)本周发布了一个多模态"开放"AI 模型 Aya Vision,实验室称其为同类最佳。
Aya Vision 可以执行图像说明写作、图片问答、文本翻译,以及在 23 种主要语言中生成摘要等任务。Cohere 还通过 WhatsApp 免费提供 Aya Vision 服务,称这是"让技术突破成果惠及全球研究人员的重要一步"。
"尽管 AI 取得了重大进展,但在不同语言间模型表现的差距仍然很大——这种差距在涉及文本和图像的多模态任务中更为明显," Cohere 在博客文章中写道。"Aya Vision 旨在明确帮助缩小这一差距。"
Aya Vision 有两个版本:Aya Vision 32B 和 Aya Vision 8B。Cohere 表示,其中更为复杂的 Aya Vision 32B 开创了"新境界",在某些视觉理解基准测试中的表现超过了 Meta 的 Llama-3.2 90B Vision 等两倍于其规模的模型。同时,根据 Cohere 的说法,Aya Vision 8B 在某些评估中的表现优于规模是其 10 倍的模型。
这两个模型都可以在 AI 开发平台 Hugging Face 上获取,采用创用 CC 4.0 许可证并附带 Cohere 的可接受使用附录。它们不能用于商业应用。
Cohere 表示,Aya Vision 使用"多样化"的英语数据集进行训练,实验室将这些数据集翻译并用于创建合成标注。标注(也称为标签)在训练过程中帮助模型理解和解释数据。例如,训练图像识别模型的标注可能是对物体的标记或指代图像中每个人、地点或物体的说明。
根据 Cohere 的说法,使用合成标注(即由 AI 生成的标注)训练 Aya Vision 使实验室能够在使用更少资源的同时实现具有竞争力的性能。
"这展示了我们对效率的关注,以及用更少的计算资源做更多事情的能力," Cohere 在其博客中写道。"这也使我们能够为通常计算资源有限的研究社区提供更大的支持。"
除了 Aya Vision,Cohere 还发布了一个新的基准测试套件 AyaVisionBench,旨在测试模型在"视觉-语言"任务方面的能力,如识别两张图片之间的差异和将截图转换为代码。
AI 行业正处于所谓的"评估危机"之中,这是由于流行的基准测试给出的综合评分与大多数 AI 用户关心的任务熟练程度的相关性较差。Cohere 认为 AyaVisionBench 是解决这一问题的一步,提供了一个"广泛且具有挑战性"的框架来评估模型的跨语言和多模态理解能力。
希望事实确实如此。
"该数据集作为一个强大的基准,用于评估多语言和真实场景中的视觉-语言模型," Cohere 研究人员在 Hugging Face 上的帖子中写道。"我们向研究社区开放这个评估集,以推进多语言多模态评估的发展。"
好文章,需要你的鼓励
Meta 推出“Llama for Startups”计划,为在美初创企业提供直接支持与资金,助力开发生成式 AI 应用;同时,Meta在 Llama 模型研发中面临竞争与挑战,努力推动 AI 业务增长。
奥兰多魔术队与SAS达成战略合作,借助SAS Viya平台,通过数据和AI技术全方位提升球迷现场及数字化体验,同时优化票务预测与运营管理。
本文讨论了 MCP、ACP 与 Agent2Agent 三项协议如何助力 AI 系统的互联互通,降低整合复杂性,推动从试验向实用化转型。
DataCore 通过收购专注边缘及分支办公室超融合基础设施(HCI)的 StarWind,结合强大软件优势和虚拟 SAN 技术,旨在为分布式网络提供更灵活、经济和高效的存储解决方案。