Cohere for AI(AI 创业公司 Cohere 的非营利研究实验室)本周发布了一个多模态"开放"AI 模型 Aya Vision,实验室称其为同类最佳。
Aya Vision 可以执行图像说明写作、图片问答、文本翻译,以及在 23 种主要语言中生成摘要等任务。Cohere 还通过 WhatsApp 免费提供 Aya Vision 服务,称这是"让技术突破成果惠及全球研究人员的重要一步"。
"尽管 AI 取得了重大进展,但在不同语言间模型表现的差距仍然很大——这种差距在涉及文本和图像的多模态任务中更为明显," Cohere 在博客文章中写道。"Aya Vision 旨在明确帮助缩小这一差距。"
Aya Vision 有两个版本:Aya Vision 32B 和 Aya Vision 8B。Cohere 表示,其中更为复杂的 Aya Vision 32B 开创了"新境界",在某些视觉理解基准测试中的表现超过了 Meta 的 Llama-3.2 90B Vision 等两倍于其规模的模型。同时,根据 Cohere 的说法,Aya Vision 8B 在某些评估中的表现优于规模是其 10 倍的模型。
这两个模型都可以在 AI 开发平台 Hugging Face 上获取,采用创用 CC 4.0 许可证并附带 Cohere 的可接受使用附录。它们不能用于商业应用。
Cohere 表示,Aya Vision 使用"多样化"的英语数据集进行训练,实验室将这些数据集翻译并用于创建合成标注。标注(也称为标签)在训练过程中帮助模型理解和解释数据。例如,训练图像识别模型的标注可能是对物体的标记或指代图像中每个人、地点或物体的说明。
根据 Cohere 的说法,使用合成标注(即由 AI 生成的标注)训练 Aya Vision 使实验室能够在使用更少资源的同时实现具有竞争力的性能。
"这展示了我们对效率的关注,以及用更少的计算资源做更多事情的能力," Cohere 在其博客中写道。"这也使我们能够为通常计算资源有限的研究社区提供更大的支持。"
除了 Aya Vision,Cohere 还发布了一个新的基准测试套件 AyaVisionBench,旨在测试模型在"视觉-语言"任务方面的能力,如识别两张图片之间的差异和将截图转换为代码。
AI 行业正处于所谓的"评估危机"之中,这是由于流行的基准测试给出的综合评分与大多数 AI 用户关心的任务熟练程度的相关性较差。Cohere 认为 AyaVisionBench 是解决这一问题的一步,提供了一个"广泛且具有挑战性"的框架来评估模型的跨语言和多模态理解能力。
希望事实确实如此。
"该数据集作为一个强大的基准,用于评估多语言和真实场景中的视觉-语言模型," Cohere 研究人员在 Hugging Face 上的帖子中写道。"我们向研究社区开放这个评估集,以推进多语言多模态评估的发展。"
好文章,需要你的鼓励
谷歌深度思维团队开发出名为MolGen的AI系统,能够像经验丰富的化学家一样自主设计全新药物分子。该系统通过学习1000万种化合物数据,在阿尔茨海默病等疾病的药物设计中表现出色,实际合成测试成功率达90%,远超传统方法。这项技术有望将药物研发周期从10-15年缩短至5-8年,成本降低一半,为患者更快获得新药治疗带来希望。
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
哈佛医学院和微软公司合作开发了一个能够"听声识病"的AI系统,仅通过分析语音就能预测健康状况,准确率高达92%。该系统基于深度学习技术,能够捕捉声音中与疾病相关的微妙变化,并具备跨语言诊断能力。研究团队已开发出智能手机应用原型,用户只需完成简单语音任务即可获得健康评估,为个性化健康管理开辟了新途径。