组合式软件先驱 Bit Cloud 宣布,借助 GitHub Copilot 等生成式 AI 编程工具的能力,推出了一款全新的 AI 代理,该代理的功能远不止于生成代码片段。
Bit Cloud 表示,Hope AI 从今天起正式向公众发布。它让任何人都可以仅通过自然语言提示,从零开始构建和维护复杂的应用程序和网站。
据公司介绍,Hope AI 弥合了简单低代码工具与专业级软件开发之间的差距。与只能生成零散代码片段的编程助手不同,该平台能够创建具有完整架构的应用程序,并且这些应用程序为长期可扩展性而设计,仅需进行基础级别的维护。
创始人兼首席执行官 Ran Mizrahi 告诉 SiliconANGLE,Hope AI 与 GitHub Copilot 等工具最大的区别在于,它使团队能够以专业程序员的方式构建完整的应用程序。所有应用程序均基于组合式架构构建,也就是说,它们由任何开发者都能理解的可复用组件构成。
Mizrahi 强调,这一点非常重要,因为这意味着使用 Hope AI 创建的任何软件都易于维护和演进。“我们帮助团队掌控 AI 构建的内容,”他解释说,“Hope AI 将软件划分为智能、模块化的部分,让你在保持快速开发的同时不失控制力。”
Mizrahi 还表示,目前许多 AI 工具被称为“黑盒”,原因在于用户对它们的工作原理知之甚少。绝大多数由 AI 构建的应用程序也是如此,它们缺乏透明度和结构,没有人能确切知道其底层代码的安全性如何,或这些代码是否仅仅是从其他地方简单拼凑而成。
“AI 确实可以加速开发,但如果没有结构,开发很快就会变成黑盒,”Mizrahi 说,“你虽然得到了输出,却失去了可见性。而当某个部分出问题或有人破坏代码时,要找出解决方案就难如登天。”
Hope AI 则采用了不同的方式。它基于与 Bit Cloud 平台相同的原则,该平台被 AT&T Inc.、Experience Inc. 以及 Red Bull GmbH 等公司用来构建和共享可反复利用、稳定可靠的应用组件,并充当一个集中式中心,方便开发者发现、协作并在不同项目间应用这些组件。
这些可复用的组件构成了 Hope AI 应用程序的基础,使其能够为几乎任何场景构建完整的系统架构。用户只需用朴实的语言描述想要构建的内容,Hope AI 就能够设计出架构、组织所需组件并生成底层代码,同时提供完整的文档和测试覆盖。借助这种方式,它可以迅速构建从客户关系管理系统到电子商务平台,再到医疗手术室管理工具等各类应用,所有模块均由不同组件拼装而成。
Mizrahi 认为,组件化在软件开发中至关重要,即便是 AI 生成的应用程序也不例外。他指出,没有详细的组装方案或标准化、可互换的零部件,没人会批量生产汽车。“既然如此,为什么还要按那种方式构建软件?Hope AI 为团队提供了构件、方案及其演进的能力,而不会让团队受制于 AI 的局限性。”他说。
经过多家机构的早期测试后,Hope AI 从今天起对所有 Bit Cloud 客户开放,同时为有兴趣了解其功能的人提供免费版。该平台原生集成了 GitHub、GitLab、Azure DevOps 和 JFrog Artifactory 等工具,让开发者能充分了解构成每个应用程序的各个组件。
此外,它还支持 Node.js、React、TypeScript、MongoDB 和 GraphQL 等现代应用开发工具,并兼容开源的 Model Context Protocol,使其能够在无人干预的情况下使用这些第三方工具。
“Copilot、Codex 正在改变开发者对代码的思考方式,”Mizrahi 说,“而 Hope AI 则更进一步:从提示到可复用组件乃至可部署的应用程序,一切都包含在内,包括结构和测试覆盖。这正是企业所真正需要的。”
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。