亚马逊云科技今日发布了一款名为Kiro的新型开发环境预览版,该环境集成了面向软件工程师的人工智能智能体,该公司表示这将帮助工程师将想法转化为可投入生产的代码。
目前处于预览阶段的Kiro为被称为"氛围编程"的新型开发方式提供了速度和稳定性支持。这种新方式允许开发者使用对话式英语告诉AI助手想要构建什么,然后像结对编程一样与其协作,或者让AI完成大部分工作。
亚马逊的这款最新工具是一个集成开发环境(IDE),这是软件工程师花费大部分时间进行构建、编码、测试和编译软件的开发界面。
传统上,氛围编程的体验可能从空白模板或现有应用开始,编程者提示AI编写一些内容,然后再次提示它编写更多内容或修复已写的内容。这种提示链最终会产生最终产品。亚马逊表示,Kiro将通过集成的AI智能体改变这一点,这些智能体将构建"规格"并使用"钩子"来理解将原型转化为生产环境的广度和深度。
因此,亚马逊将Kiro的新功能称为"规格化编程"。
例如,想象一个开发者有一个电商应用。对于规格制定,Kiro将接受单个提示,如"为产品添加评论系统",并生成需求文档和用户故事,用于查看、创建、筛选和评分产品评论。每个故事都将包括验收标准和边缘情况。
这可以转化为Kiro任务和子任务,智能体随后可以将这些发送给编码智能体。每个任务都包括需求、实现、可访问性和测试需求等详细信息。这使得开发者能够跟进并分步检查工作,避免遗漏任何部分。
AWS产品负责人Nikhil Swaminathan和开发体验与智能体副总裁Deepak Singh在博客文章中写道:"Kiro的规格与你不断演进的代码库保持同步。开发者可以编写代码来更新规格,或更新规格来刷新任务。"
这种方法的重要之处在于,代码和智能体的过程从上到下都有完整的文档记录。没有遗漏任何内容,开发者可以鸟瞰应用或功能的构建方式,并能够在任何事情发生之前从需求视角进行指导。亚马逊表示,这消除了通常与氛围编程相关的昂贵的反复沟通。
一旦开发者启动程序,他们就可以通过执行状态指示器观看新代码的构建过程。
钩子的工作方式与规格略有不同;它们更像是一个经验丰富的开发者关注代码变化。当开发者保存或创建文件时,钩子会触发,提示AI智能体审查并采取必要行动。
例如,开发者保存一个React组件,钩子让AI智能体更新相关的测试文件。当应用程序接口端点发生变化时,钩子会更新相关的README文档。在准备部署软件时,钩子可以通过漏洞扫描器运行软件,确保没有意外泄露密码、API密钥或其他凭据。
钩子的作用是为整个团队执行最佳实践和其他规则,确保开发者保持质量标准。它们可以检查清单、更新文档,并在文件保存和更新时在后台提供安全验证。
亚马逊表示,Kiro为开发者提供的功能超越了规格和钩子,可以通过模型上下文协议进行扩展,这是一种连接AI智能体与外部工具的开源方法。这为开发者提供了大量开源AI工具库,他们可以连接这些工具来增强Kiro的编码潜力。
当然,对于希望逐行编程的开发者,Kiro还包括用于文件内编码任务的智能体聊天功能。
Kiro团队写道:"人类和机器协调构建软件的方式仍然混乱且分散,但我们正在努力改变这种状况。规格化编程是朝着这个方向迈出的重要一步。"
Kiro目前提供预览版,可在苹果MacOS、Windows和Linux上下载。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。