Cohere for AI(AI 创业公司 Cohere 的非营利研究实验室)本周发布了一个多模态"开放"AI 模型 Aya Vision,实验室称其为同类最佳。
Aya Vision 可以执行图像说明写作、图片问答、文本翻译,以及在 23 种主要语言中生成摘要等任务。Cohere 还通过 WhatsApp 免费提供 Aya Vision 服务,称这是"让技术突破成果惠及全球研究人员的重要一步"。
"尽管 AI 取得了重大进展,但在不同语言间模型表现的差距仍然很大——这种差距在涉及文本和图像的多模态任务中更为明显," Cohere 在博客文章中写道。"Aya Vision 旨在明确帮助缩小这一差距。"
Aya Vision 有两个版本:Aya Vision 32B 和 Aya Vision 8B。Cohere 表示,其中更为复杂的 Aya Vision 32B 开创了"新境界",在某些视觉理解基准测试中的表现超过了 Meta 的 Llama-3.2 90B Vision 等两倍于其规模的模型。同时,根据 Cohere 的说法,Aya Vision 8B 在某些评估中的表现优于规模是其 10 倍的模型。
这两个模型都可以在 AI 开发平台 Hugging Face 上获取,采用创用 CC 4.0 许可证并附带 Cohere 的可接受使用附录。它们不能用于商业应用。
Cohere 表示,Aya Vision 使用"多样化"的英语数据集进行训练,实验室将这些数据集翻译并用于创建合成标注。标注(也称为标签)在训练过程中帮助模型理解和解释数据。例如,训练图像识别模型的标注可能是对物体的标记或指代图像中每个人、地点或物体的说明。
根据 Cohere 的说法,使用合成标注(即由 AI 生成的标注)训练 Aya Vision 使实验室能够在使用更少资源的同时实现具有竞争力的性能。
"这展示了我们对效率的关注,以及用更少的计算资源做更多事情的能力," Cohere 在其博客中写道。"这也使我们能够为通常计算资源有限的研究社区提供更大的支持。"
除了 Aya Vision,Cohere 还发布了一个新的基准测试套件 AyaVisionBench,旨在测试模型在"视觉-语言"任务方面的能力,如识别两张图片之间的差异和将截图转换为代码。
AI 行业正处于所谓的"评估危机"之中,这是由于流行的基准测试给出的综合评分与大多数 AI 用户关心的任务熟练程度的相关性较差。Cohere 认为 AyaVisionBench 是解决这一问题的一步,提供了一个"广泛且具有挑战性"的框架来评估模型的跨语言和多模态理解能力。
希望事实确实如此。
"该数据集作为一个强大的基准,用于评估多语言和真实场景中的视觉-语言模型," Cohere 研究人员在 Hugging Face 上的帖子中写道。"我们向研究社区开放这个评估集,以推进多语言多模态评估的发展。"
好文章,需要你的鼓励
本文警示:AI仅复制人类表象,非真正创新;不断抹平人性瑕疵,削弱创新活力,迫切需要激发挑战与思辨的系统设计。
本文讨论了AI如何革新航空航天业,从优化航班运营、提升驾驶舱智能化,到加速飞机设计、精益制造和预测性维护,既提高安全性又降低成本,同时强调需平衡技术、监管与伦理挑战。
Google Cloud旗下Mandiant最新M-Trends报告显示,金融驱动的网络攻击(如勒索软件)依旧为全球主流威胁,其手段正日益复杂和智能化。
英国初创企业 Isembard 获得 900 万美元种子轮融资,将在西方建立多个自动化精准制造工厂,利用自家 MasonOS 系统为航空、国防和能源等领域提供更快捷低成本的本土生产方案。