Meta正在向规模如曼哈顿岛般庞大的GPU数据中心投入数百亿美元,然而这家社交网络公司在与OpenAI或Anthropic等竞争对手的较量中仍显吃力。
因此,CEO马克·扎克伯格正在转移目标,将注意力重新聚焦在一个模糊的新目标上:AI超级智能。
"在过去几个月里,我们开始看到AI系统自我改进的迹象,"他在周三的博客文章中写道。"改进速度目前还很缓慢,但不可否认正在发生。开发超级智能现在已经触手可及。"
关于AI超级智能的确切定义并没有太多共识,尽管扎克伯格诗意地描述了它将如何改善一切并改变我们创造和发现的方式,但这篇文章在这个问题上几乎没有提供任何明确性。
无论超级智能究竟是什么,Meta不仅计划构建它,更希望为每个人提供个人专属的超级智能来丰富生活——毕竟,当你可以和你的伙伴Llama对话时,谁还需要朋友呢。
与其他所有超级智能不同,扎克伯格坚持认为Meta的超级智能不是要让你失业,而是要赋能用户追求个人抱负。
"深度了解我们、理解我们目标并能帮助我们实现目标的个人超级智能,将是最有用的,"这位曾创建社交网络来评价哈佛同学吸引力的创始人写道。
通往超级智能的道路铺满了数据中心
这篇充满炒作的博客文章发布时间恰好在Meta即将公布第二季度财报前几小时,此时扎克伯格正面临投资者和分析师对公司基础设施支出以及新成立的"超级智能"团队丰厚薪酬包的日益严格审查和担忧。
正如我们在6月报道的那样,Meta向一名AI研究人员提供了八位数的薪酬来加入扎克伯格的AI精英团队。其他报告称,这些offer要高出一到两个数量级。
Meta还在推进一些真正庞大的基础设施项目。包括在路易斯安那州里奇兰教区建设一个2.2吉瓦的AI超级集群,将在未来五年左右分阶段部署。
本月早些时候,扎克伯格宣布了在未来几年部署多个"多吉瓦"数据中心的计划,第一个名为Prometheus的数据中心将于2026年上线。据报道,这个数据中心将消耗超过1吉瓦的电力。
到年底,Meta计划拥有超过130万块英伟达和AMD GPU不断运转,生成Token并训练模型。
当然,这些都不便宜。仅在2025年,扎克伯格的公司就计划向资本支出投入高达720亿美元,主要用于建设新的数据中心——随着第二季度财报的公布,这个数字可能还会增长。
投资规模惊人,AI表现平平
然而,尽管有这些投资,Meta仍难以与OpenAI或Anthropic等更成熟的参与者竞争。今年4月,Meta发布了备受瞩目的Llama 4大语言模型系列。你可能还记得,在发布前,扎克伯格预测2025年Meta AI将"服务超过10亿人",Llama 4将成为"领先的最先进模型"。
不幸的是,对Meta来说,这些模型中的前两个——代号Scout和Maverick——反响平平,更糟糕的是还被指控在基准测试中偷换概念。
这些模型显然表现如此令人失望,以至于Meta据报道已经放弃了其最大、据说最强大的Behemoth模型,该模型原本应该拥有2万亿参数,能够与OpenAI和谷歌的最大模型竞争。
在周三的财报电话会议上,分析师无疑会寻找扎克伯格AI支出狂潮合理性的迹象,确认超级智能不会重蹈元宇宙的覆辙。
在ChatGPT于2022年底掀起AI热潮之前,你可能还记得扎克伯格曾确信虚拟现实将征服世界。截至第一季度,公司的Reality Labs团队已经烧掉了约600亿美元试图让元宇宙成为现实。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。