由Hugging Face机器学习增长负责人Ahsen Khaliq(@_akhaliq)开发的开源Web应用开发环境AnyCoder已在Hugging Face Spaces正式发布。
该工具现已面向AI代码共享平台Hugging Face的所有用户开放,集成了实时预览、多模态输入和一键部署功能。在托管环境中,无论是缺乏技术专业知识的独立创作者,还是为客户或大型企业工作的开发人员,都可以借助Hugging Face托管的AI模型快速开始"直觉式编程"Web应用。
AnyCoder也因此成为Lovable等服务的替代方案,这些服务同样允许用户用纯英文描述来开始编写应用程序,无需正式的编程知识。
免费直觉式编程,Kimi K2驱动
Khaliq将AnyCoder作为Hugging Face生态系统内的个人项目开发,并将其定位为"首批支持Moonshot强大而小巧高效的Kimi K2模型的直觉式编程应用之一",该模型于上周发布。
AnyCoder的主要功能允许用户输入纯文本描述来生成HTML、CSS和JavaScript代码。这些代码会在实时预览窗格中显示,可以进行编辑或直接部署。工具还包含待办事项应用、仪表板、计算器等示例模板。
AnyCoder完全基于Hugging Face的开源Python开发环境Gradio构建,允许用户用纯英文描述应用程序或上传图像,即时生成可运行的前端代码。
Khaliq在与VentureBeat记者的私信对话中将其描述为"免费开源的直觉式编程应用"。
他还指出,该工具支持多个开源模型,用户可以通过左侧控制面板的下拉菜单在不同模型间切换,包括:
Moonshot Kimi-K2、DeepSeek V3、DeepSeek R1、百度的ERNIE-4.5-VL、MiniMax M1、阿里巴巴的Qwen3-235B-A22B、SmolLM3-3B和GLM-4.1V-9B-Thinking。
从UI图像生成代码、网络搜索集成和OCR支持
使用ERNIE-4.5-VL模型,AnyCoder支持多模态生成。用户可以上传UI设计截图或原型图,并从中生成功能性前端代码,这对设计师或视觉化工作团队非常有用。
AnyCoder包含网站重新设计工具,能够从任何公开网站提取内容并以更现代的布局重新渲染。它使用抓取的内容如页面结构、元信息和图像来构建新版本,可选择性地根据用户指令如"让它更简约"或"添加深色模式"进行调整。
为支持最新的设计趋势和实现模式,AnyCoder通过Tavily提供网络搜索集成。启用API密钥后,平台会在生成代码前搜索当前技术和最佳实践。
用户可以上传包含嵌入文本的图像(如截图或手写笔记),AnyCoder使用Tesseract OCR提取其中的内容。提取的文本随后可以整合到代码提示或应用内容中。
一键部署到Hugging Face Spaces
AnyCoder允许将生成的应用即时部署到Hugging Face Spaces。在通过OAuth认证并授予所需权限后,用户可以在自己的Hugging Face账户命名空间下部署应用。部署功能包括:
移动友好的响应式设计、品牌化页眉/页脚和README、实时可共享URL以及完整的所有权和编辑权限。
该部署功能现已支持使用Gradio构建的完整Python应用程序,将工具的使用场景扩展到静态网站之外。对Streamlit的支持也正在开发中。
对于新手开发者或希望快速启动新项目的技术专家来说,AnyCoder似乎是一个优秀且引人注目的起点。
好文章,需要你的鼓励
法国人工智能公司Mistral AI宣布完成17亿欧元(约20亿美元)C轮融资,由荷兰半导体设备制造商ASML领投。此轮融资使Mistral估值从去年的60亿美元翻倍至137亿美元。英伟达、DST Global等知名投资机构参投。作为欧洲领先的AI开发商,Mistral凭借先进的多语言大模型与OpenAI等美国公司竞争,其聊天机器人Le Chat具备语音模式等功能。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
VAST Data收购了成立仅数月的初创公司Red Stapler,该公司由NetApp资深团队创立。Red Stapler创始人兼CEO Jonsi Stefansson将担任VAST云解决方案总经理,负责超大规模云战略。Red Stapler拥有6名开发人员,开发了跨SaaS交付、API集成、监控等功能的云控制平面和服务交付平台,将加速VAST AI OS在超大规模和多云环境中的部署,深化与全球领先超大规模云服务商的合作关系。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。