科技领域的一切似乎都在飞速发展,但DevOps基础设施却是个例外。
Stakpak联合创始人兼CEO George Fahmy表示,管理基础设施正变得越来越困难——尽管AI浪潮汹涌澎湃,或者说正是因为如此?
"自从大语言模型问世以来...我们意识到它们在编程方面表现出色——而大多数开发者也确实喜欢编程,"他说道。"但它们在开发者必须处理的其他所有事务上表现糟糕。"
这正是他和Stakpak团队致力于改变的现状:"让大语言模型在开发者实际上不喜欢做的事情上变得可靠。"
基础设施需要自动驾驶式变革
Fahmy认为DevOps基础设施早该进行全面改革,他指出近年来连自动驾驶汽车都比基础设施工具取得了更大进展。
正如他所说:"我们正在努力让基础设施实现自动驾驶,这样开发者就能将更多时间...投入到构建实际产品上。"
那么开发者不喜欢做的"事务"具体是什么呢?
这很难定义。DevOps已经变成了一个杂乱无章的责任集合,从编程扩展到包括设置本地机器、配置云环境、管理部署管道和生产系统等任务。
正是这种包罗万象的混合特性使得DevOps对大语言模型而言成为一个棘手的领域。
"对于编程任务,你只需生成代码然后运行...但在DevOps中,除了编程还有无数其他事情,而大语言模型在这方面表现不佳,"Fahmy说道。更糟糕的是,开发者"讨厌做所有这些事情。"
问题出现在两端。DevOps任务不仅让开发者感到厌烦,执行这些任务所需的技能也让整个行业望而却步。在Linux基金会的2024年技术人才状况报告中,51%的组织将DevOps列为"优先招聘的关键技术领域"之一,填补这些职位的平均时间几乎需要六个月。
"全球市场在这种知识和专业技能方面存在巨大的技能差距,"Fahmy证实道。"人们一直在试图招聘DevOps...和DevSecOps...人才,但找不到合适的人选。"
如今,当时间和熟练人手短缺时,自动化——更具体地说是AI——被寄希望于填补这些空白。但Fahmy表示这对基础设施并不奏效:
"我们看到编程智能体...它们擅长编程,但它们并非为这种基础设施工作而构建。"
在他看来,问题归结为三个核心挑战。
安全性挑战
DevOps需要在实时系统上工作并处理敏感数据——但Fahmy表示,当今大多数AI智能体依赖的工具在生产级安全性方面还不够完善。
"这就是为什么我们开始重建这个工具层并开源它,"他解释道,"因为我们想要设定一个标准,说明这些工具可以有多安全,以便能够处理生产工作。"
他指的是Stakpak,这是一个完全开源的DevOps智能体,帮助开发者保护、部署和维护生产就绪的基础设施。
据Fahmy介绍,Stakpak通过使大语言模型能够与敏感系统交互而不暴露机密信息来解决这一安全挑战:"我们处理敏感信息和机密的编辑,让大语言模型能够处理敏感数据而不看到实际的敏感数据。"
工具复杂性问题
安全性并非阻止开发者安全自动化基础设施工作的唯一障碍。不断增长的基础设施管理工具数量也在制造头痛问题。
"有数百种不同的工具和数百种做同一件事的不同方法,"Fahmy解释道。"所以你可以使用三四种不同的工具...或者将它们堆叠在一起。"
这听起来很便利:更多选择,更大灵活性。但实际上,大量的工具(以及随之而来的所有冲突观点)只会产生更多困惑、摩擦和风险。
当本应帮助开发者管理这些工具的AI智能体最终创造出新问题时,这就成了双重麻烦。
Fahmy回忆起现在臭名昭著的Replit事故,一个智能体意外删除了某家公司的整个代码库。
"这些智能体和模型——它们超级有创造力,"他说。"它们可以找到很多不同的方法来做同一件事...对试图控制它们的人来说这是噩梦。"
他声称,Stakpak可以通过Warden——一个防止智能体执行破坏性操作的护栏系统——来终结这个噩梦。
如何做到的?Fahmy表示它将编程智能体封装在沙箱中,明确的安全规则阻止不安全的操作:"例如,你可以在AWS中列出你的资源,但无论使用什么工具处理AWS,你都不能删除它们。"
他解释说,这与典型的智能体控制方法截然相反,他声称那些方法并不奏效:"你不能使用一个智能体来防止另一个智能体破坏东西。"你也不能简单地将特定操作列入黑名单或白名单,这会创造出手动枚举每种可能场景的不可能任务。
相反,Warden提供了一种确定性方法来防止智能体执行破坏性操作,无论它使用哪种工具。
诚然,Fahmy说这对编程来说并不特别有价值。但他确认这对操作任务来说是游戏规则的改变者,比如数据库迁移、更新或其他基础设施更改,在这些任务中"你可能会用错误的命令搞垮整个系统。"
知识获取限制
Fahmy毫不保留地说:"大语言模型在基础设施工作方面表现糟糕。"
他将大部分原因归咎于碎片化:DevOps团队被工具淹没,但每个工具都说着不同的语言。大语言模型只能可靠地处理最常见的编程语言,这让情况变得更糟。
这就是为什么Fahmy说Stakpak将大量研发工作投入到大语言模型知识差距上:"教会大语言模型使用它们从未训练过的新工具...;获取它们以前从未见过的新知识...这极具挑战性。"
与可以通过创建新规则文件添加知识的编程智能体不同,DevOps智能体需要共享知识库才能有效运行——Fahmy表示Stakpak正在通过集中化规则手册和共享内存来实现这一点:
"我们认为这将是游戏规则的改变者,因为基础设施领域并不缺少大量基础设施工具...;它缺少学习新知识然后传达它的有效方法。"
Stakpak通过定义标准操作程序的集中化规则手册以及衡量一致性的内部评估基准来实现这一点,确保智能体在适应每个环境时始终遵循正确的程序。
这只是等式的一部分。同时,共享内存允许智能体从过去的会话中学习。当团队成员完成任务时,推理模型会提取关键记忆,所以当另一个团队成员使用智能体时,它会记住并应用所学知识。
这个共享内存池打破了知识孤岛,Fahmy将其描述为DevOps中最大的障碍:"平台或基础设施团队可能已经创造了某些东西,但开发者仍然不知道...或者不知道它可以让他们的生活更轻松。"
迈向自我改进的未来
当然,这并非基础设施自动化的终点。Fahmy表示Stakpak已经在解决下一个运动:让智能体自我改进。
"如果你可以获取好的或坏的例子并将其反馈给系统,帮助它微调自己的参数以在继续使用中变得更好,会怎么样?"
随着自动化的进步,DevOps基础设施可能终于开始赶上——对于厌倦了处理所有这些"事务"的开发者来说,这是一个受欢迎的升级。
Q&A
Q1:Stakpak是什么?它能解决哪些问题?
A:Stakpak是一个完全开源的DevOps智能体,帮助开发者保护、部署和维护生产就绪的基础设施。它主要解决三个核心问题:安全性挑战(通过处理敏感信息编辑让大语言模型安全处理敏感数据)、工具复杂性问题(通过Warden护栏系统防止智能体执行破坏性操作)以及知识获取限制(通过集中化规则手册和共享内存池)。
Q2:Warden护栏系统是如何工作的?
A:Warden是Stakpak开发的护栏系统,它将编程智能体封装在沙箱中,通过明确的安全规则阻止不安全的操作。例如,你可以在AWS中列出资源,但无论使用什么工具都不能删除它们。这种方法不同于传统的黑白名单方式,而是提供确定性的方法来防止智能体执行破坏性操作,无论使用哪种工具。
Q3:为什么大语言模型在DevOps基础设施工作上表现不好?
A:主要原因是碎片化问题。DevOps涉及数百种不同工具和做同一件事的不同方法,每个工具都有不同的"语言",而大语言模型只能可靠处理最常见的编程语言。此外,DevOps不仅仅是编程,还包括设置本地机器、配置云环境、管理部署管道等各种任务,这种复杂性使得大语言模型难以胜任。
好文章,需要你的鼓励
Helios Towers供应链总监Dawn McCarroll在采访中分享了公司的数字化转型经验。作为一家在非洲和中东地区运营近15000个移动通信塔站的公司,Helios正通过SAP S/4Hana系统升级、AI技术应用和精益六西格玛方法论来优化供应链管理。McCarroll特别强调了公司Impact 2030战略中的数字包容性目标,计划在未来五年内培训60%的合作伙伴员工掌握精益六西格玛原则,并利用大数据和AI技术实现端到端的供应链集成。
德国弗劳恩霍夫研究院提出ViTNT-FIQA人脸质量评估新方法,无需训练即可评估图像质量。该方法基于Vision Transformer层间特征稳定性原理,通过测量图像块在相邻层级间的变化幅度判断质量。在八个国际数据集上的实验显示其性能可媲美现有最先进方法,且计算效率更高,为人脸识别系统提供了即插即用的质量控制解决方案,有望广泛应用于安防监控和身份认证等领域。
威胁行为者在npm注册表上传8个恶意包,伪装成n8n工作流自动化平台的集成组件来窃取开发者OAuth凭据。其中一个名为"n8n-nodes-hfgjf-irtuinvcm-lasdqewriit"的包模仿Google Ads集成,诱导用户在看似合法的表单中关联广告账户,然后将凭据传输到攻击者控制的服务器。这种攻击利用了工作流自动化平台作为集中凭据库的特点,能够获取多个服务的OAuth令牌和API密钥。
布朗大学联合图宾根大学的研究团队通过系统实验发现,AI医疗助手的角色设定会产生显著的情境依赖效应:医疗专业角色在急诊场景下表现卓越,准确率提升20%,但在普通医疗咨询中反而表现更差。研究揭示了AI角色扮演的"双刃剑"特性,强调需要根据具体应用场景精心设计AI身份,而非简单假设"更专业等于更安全",为AI医疗系统的安全部署提供了重要指导。