Moonshot发布Kimi K2.5:可从视频生成代码的AI模型

阿里巴巴支持的中国AI初创公司月之暗面发布Kimi K2.5模型,号称是迄今为止最强大的开源模型。该模型基于15万亿文本和视觉令牌预训练,具备原生多模态能力,可从上传的图像或视频生成Web界面。在编程基准测试中表现与OpenAI、谷歌和Anthropic的前沿模型相当。其"视觉编程"功能能够直接从视频创建前端界面,降低了用户的技术门槛。

阿里巴巴支持的中国AI初创公司月之暗面(Moonshot)于周二发布了Kimi K2.5,在博客文章中将其描述为迄今为止世界"最强大的开源模型"。

Kimi K2.5基于去年夏天推出的Kimi K2大语言模型构建,配备了编程功能,可能成为专有模型的有力竞争者。根据Moonshot发布的数据,Kimi K2.5在SWE-Bench Verified和SWE-Bench Multilingual编程基准测试中的得分与OpenAI、Google和Anthropic的前沿模型相当。

然而,真正让它脱颖而出的是从视觉输入创建前端Web界面的能力。

Kimi K2.5使用15万亿个文本和视觉Token进行了预训练,使其成为Moonshot所说的"原生多模态模型",能够从上传的图像或视频生成Web界面,包括交互元素和滚动效果。

在Moonshot博客文章中展示"视觉编程"功能的演示视频中,Kimi K2.5基于一个现有网站的录制视频生成了新网站的草图,视频从用户屏幕滚动的角度显示。该模型能够重现整体美感,尽管以经典的AI风格,在过程中犯了一些轻微的视觉错误,比如将地球仪上的大陆描绘成无定形的斑点。

目前尚不清楚这种功能的实用性如何。不过,仅从图像或视频生成网站和应用程序的模拟图将标志着所谓"氛围编程"工具的重要进步,这些工具基于非专家易于部署的直观方法,而非传统编程。

ChatGPT、Claude和Gemini可以基于截图或其他图像为新的Web资产生成原始代码,但这仍然需要用户将其转换为完成且可用的产品。Moonshot新模型的新颖性(和潜在市场价值)在于它省略了这个中间步骤。公司在博客文章中写道:"通过对图像和视频进行推理,K2.5改进了图像/视频到代码的生成和视觉调试,降低了用户以视觉方式表达意图的门槛。"

如果在现实世界中证明有用,特别是在企业中,其他开发者可能会跟进,为自己的模型提供类似功能。

Kimi K2.5的编程功能通过名为Kimi Code的开源平台提供,可以通过Cursor、VSCode和Zed等集成开发环境访问。新模型还可通过Kimi.com、Kimi应用程序和Kimi API获得。

Moonshot还推出了名为"智能体群"的研究预览版,它协调多达一百个"子智能体"来提高某些多步骤任务的性能。

通过并行运行多个任务,智能体群还可以加速计算过程。Moonshot在博客文章中写道:"并发运行这些子任务与顺序智能体执行相比,显著减少了端到端延迟",并补充说内部评估显示端到端运行时间——从输入到最终输出完成的总过程——可以减少多达80%。

拥有"Allegretto"或"Vivace"Moonshot账户(每月分别花费31美元和159美元)的用户可以在Kimi网站上试用智能体群,方法是点击提示框右下角的模型下拉菜单并选择"K2.5 Agent Swarm (Beta)"。

Q&A

Q1:Kimi K2.5最突出的功能是什么?

A:Kimi K2.5最突出的功能是"视觉编程"能力,它可以从上传的图像或视频直接生成Web界面,包括交互元素和滚动效果。这种能力让用户无需传统编程就能通过视觉方式表达设计意图,大大降低了Web开发的门槛。

Q2:什么是智能体群功能?有什么优势?

A:智能体群是Moonshot推出的研究预览功能,它可以协调多达一百个子智能体来处理复杂的多步骤任务。通过并行运行多个任务,这项技术可以显著提高处理速度,内部评估显示端到端运行时间最多可以减少80%。

Q3:如何使用Kimi K2.5的功能?

A:Kimi K2.5的编程功能可通过开源平台Kimi Code访问,支持Cursor、VSCode、Zed等开发环境。用户还可以通过Kimi.com、Kimi应用程序和Kimi API使用。智能体群功能需要付费账户才能体验。

来源:ZDNET

0赞

好文章,需要你的鼓励

2026

01/28

13:09

分享

点赞

邮件订阅