技术史上最具变革性的理念之一始于一个看似简单的问题:如果任何人都能查看、塑造和共享运行世界的代码会怎样?这个问题催生了开源理念,重新构建了互联网并重新定义了云计算的运作方式。现在,AI正接近类似的转折点,世界必须决定这项技术是继续被少数人封闭控制,还是变得开放、可检查并由更广泛的社区共同塑造。
表面上看,重复使用熟悉的公式似乎很容易:开放模型,让社区改进它们,然后看着创新起飞。但AI不仅仅是代码。它会学习、判断、适应和行动,这意味着其行为无法像软件那样简单地被检查或控制。这使得通向"开放性"的道路变得复杂得多,因为透明度必须扩展到理解系统如何演化、决策来自何处,以及如何大规模审计或编排这些决策。
政策制定者和开发者也在努力理解开放性的真正含义,以及企业是否能信任他们无法检查或审计的AI系统。7月发布的白宫《美国AI行动计划》敦促联邦机构培育开放模型能够蓬勃发展的环境。8月,OpenAI通过其开源权重模型gpt-oss-120b和gpt-oss-20b呼应了这一势头,在Apache 2.0许可下提供了代码和权重,尽管训练数据仍保持封闭状态。
这一发展暴露了企业AI的一个更深层问题:这真的是透明度的极限吗,还是组织应该要求更多?
对于红帽CEO马特·希克斯来说,像OpenAI开源权重发布这样的举措标志着进步,但仍未达到真正开源AI的要求。他认为开放性不能止于模型权重,因为共享权重并不会自动创造透明度或控制力。在AI中,权重或模型在训练期间学习的数值定义了系统如何解释输入、做出决策和调整行为。
希克斯认为,如果企业无法探索、重新运行或修改他们所依赖的系统,他们就无法真正控制自己的AI,开源承诺仍未实现。
"在理想世界中,所有训练数据加上模型权重都应该是开源的。这意味着用于训练模型的标准化开放数据集,以及模型权重的基本参数。但我们还没有达到那里,"他说。在那之前,他认为开放性的定义应该从模型权重开始,但要进一步得到开放工具和平台生态系统的支持,以防止供应商锁定。他说,这是真正开源AI的基线。
"我们已经看到模型领域的许多最大参与者意识到开源是一条前进道路,如果不是唯一道路的话。但不能仅仅是模型——我们还需要关注用于构建模型和AI应用程序的工具、运行它们的平台、推理服务器等方面的开源努力,"希克斯说。
随着组织采用能够推理、适应和行动的系统,挑战正从看到AI做什么转向协调它如何行为。这种转变是编排变得不可或缺的原因。实际上,编排帮助系统决定哪个模型处理哪个任务,跨模型排序操作,管理计算资源,并在需要判断时将决策交给人类。此外,它防止AI退化为一团混乱的断开自动化。
没有哪个领域比网络安全更能感受到这种压力,即使是可见性或控制方面的小疏忽也可能在几分钟内变成全面漏洞。网络安全巨头CrowdStrike最近测量了最快的攻击者突破时间——从初始入侵到横向移动的间隔——仅为51秒。这给防御者留下不到一分钟的时间来检测、解释和响应。
该公司的应对方案是将网络安全从自动化发展到他们所称的"智能体安全运营中心(SOC)"——一支在编排的人类定义防护栏下协作的专业AI智能体队伍。
"SOC工作流需要以速度和精确度执行多个特定领域任务。随着对手越来越多地利用AI来扩大和加速攻击,一刀切的大型单体AI模型根本跟不上,"CrowdStrike总裁迈克尔·森托纳斯告诉我。"智能体SOC使分析师能够编排智能体群,每个智能体专注于不同任务但协作完成威胁狩猎、检测分级和响应等高影响工作流的自动化。"
机器速度的编排
CrowdStrike智能体SOC策略的核心是Charlotte AI,这是一个基于数百万分析师决策训练的安全助手。该公司声称Charlotte现在在许多工作流中与人类结论的匹配准确率约为98%,通过接管重复的调查和分级工作,每周可以节省约40小时的人工工作。
Charlotte Agentic SOAR,CrowdStrike的安全编排、自动化和响应系统,作为Charlotte、不断扩展的专业智能体群和它们支持的实际工作流之间的连接组织。不是将每个智能体视为孤立工具,Charlotte Agentic SOAR让客户将智能体链接成多步骤调查和响应。检测智能体可以触发分级智能体,分级智能体又可以调用修复智能体,所有这些都在人类定义的防护栏下进行。Charlotte AI可以监督、推理上下文,并在出现判断要求时升级给分析师。
"智能体不是遵循预定义步骤,而是动态推理人类作者永远无法完全预测的条件。分析师定义任务;智能体共享上下文、协作并确定下一个最佳行动——所有这些都在人类监督下进行。它在速度和精确度方面实现了跃进式改变,为防御者夺回了网络安全中最宝贵的货币:时间,"森托纳斯解释说。
安全领域为开源辩论带来了不同视角。封闭的AI系统不仅限制创新;它们还隐藏风险。如果防御者看不到模型如何与其他工具交互,他们就会错过捕获提示攻击、数据泄露路径或操纵行为的机会。智能体AI正在提供一种对抗这种不透明性的方法,因为自主智能体可以实时监控系统、标记异常并记录每个操作。
"随着组织采用智能体SOC,几个学科变得至关重要。数据质量和卫生是基础,确保智能体有正确信息做出正确决策,"森托纳斯说。"数据驱动决策和风险管理的文化必须指导团队如何解释和处理机器输出。强大的治理——决定何时、何种程度自动化什么——将定义企业如何安全有效地扩展智能体操作。"
CrowdStrike最近报告了强劲的2026财年第三季度业绩。该公司表示其Falcon平台正在为SOC团队提供AI驱动的结果,该季度产生了2.65亿美元的新增年度经常性收入,同比增长73%,推动总ARR达到49.2亿美元,同时实现3.98亿美元营运现金流和2.96亿美元自由现金流。
真正的竞赛:谁控制谁?
红帽和CrowdStrike的理念指向了对开源AI下一步发展的共同观点。未来在于混合模型:开放、可检查的系统与治理化、智能体编排相结合。没有编排的开放性创造了对仍无法大规模管理系统的可见性。没有开放性的编排存在强大、不负责任且只对其创造者负责的机器风险。这两种结果都不能服务于企业、监管者或公众。
"模型不会创造生态系统;它只是其中一个方面。有工具、平台、推理服务器等等形成完整的AI堆栈,所有这些也需要由开源创新驱动,"希克斯说。"企业需要将AI视为混合云的延伸。"
他补充说,从模型到工具再到平台的开源AI为组织提供了开源软件带给云计算的同样选择和控制权。
"开源的更大可访问性允许这种创造力,帮助你获取现有模型并根据特定需求修改它——就像你现在对开源软件所做的一样,"希克斯说。
真正的AI军备竞赛可能很快就不是建造更大模型,而是建造值得信赖和可防御的系统:设计上开放,实践中编排,能够以企业速度和规模运行。这一愿景如何塑造2026年开源AI的未来还有待观察。
Q&A
Q1:什么是开源AI?它与传统AI有什么区别?
A:开源AI是指模型代码、权重甚至训练数据都公开可查看、修改和共享的AI系统。与传统封闭AI不同,开源AI允许用户检查系统行为、修改模型参数并防止供应商锁定,就像开源软件对云计算的意义一样。
Q2:Charlotte AI是什么?它在网络安全中发挥什么作用?
A:Charlotte AI是CrowdStrike开发的安全助手,基于数百万分析师决策训练而成。它能以约98%的准确率匹配人类结论,每周节省约40小时手工工作。Charlotte AI可以监督多个专业智能体协作,实现威胁狩猎、检测分级和响应的自动化。
Q3:为什么AI编排对企业如此重要?
A:AI编排帮助企业协调多个AI模型的行为,决定哪个模型处理哪个任务,管理计算资源并在需要时将决策交给人类。特别是在网络安全领域,攻击者突破时间仅51秒,编排技术让防御者能够快速、精确地协调多个AI智能体响应威胁。
好文章,需要你的鼓励
Anthropic推出Claude Code的Slack集成功能,让开发者能直接在聊天线程中委托编程任务。这项测试功能于周一以研究预览版形式发布,基于现有Slack集成增加了完整工作流自动化。开发者现在可以标记@Claude启动完整编程会话,Claude会分析消息确定合适的代码库,在线程中发布进度更新并分享审查链接。这反映了行业趋势:AI编程助手正从IDE迁移到团队协作工具中。
波恩大学研究团队首次量化AI训练的材料成本,发现一块GPU含32种元素,93%为重金属。训练GPT-4需消耗约7吨金属材料,其中多为有毒重金属。研究建立了从计算需求到硬件消耗的评估框架,发现通过软硬件优化可减少93%的资源消耗。该研究揭示了AI发展的隐性环境代价,呼吁行业从规模竞赛转向效率革命,实现可持续发展。
AI发展推动数据中心行业迎来前所未有的挑战与机遇。Switch公司消耗内华达州三分之一电力,展现了AI对电力需求的巨大规模。核能成为AI未来发展的关键,单个AI机架功耗可达1.7MW。预计到2030年,数据中心行业将消耗200GW电力。创新的星形配置设计和差异化备电策略正在重新定义数据中心的弹性架构,仅20%的工作负载需要发电机备份。
南开大学团队构建了迄今最大规模的结肠镜AI数据库COLONVQA,包含110万视觉问答条目。他们发现现有AI模型存在泛化能力不足和容易被误导等问题,因此开发了首个具备临床推理能力的结肠镜AI模型COLONR1。该模型采用多专家辩论机制生成推理数据,在综合评估中准确率达56.61%,比传统方法提升25.22%,为智能结肠镜诊断从图像识别向临床推理的转变奠定了基础。