由于云业务增长放缓导致第四季度收入低于预期,谷歌母公司 Alphabet 的股价在盘前交易中下跌。
Alphabet 周二在一份声明中表示,不包括合作伙伴支出的季度销售额为 816 亿美元。根据彭博社汇编的数据,分析师此前预计为 828 亿美元。
Alphabet 宣布 2025 年资本支出将达到 750 亿美元,远超分析师预期的 579 亿美元。Alphabet 首席执行官 Sundar Pichai 在与投资者的财报电话会议上表示,这项投资"直接推动收入",因为它有助于服务客户。
谷歌的云业务目前是 AI 热潮为公司销售贡献的最明显指标。初创公司因需要更多计算能力而成为客户,但增速不及预期。截至 12 月 31 日的期间内,约 120 亿美元的销售额未达预期。
谷歌云在规模上仍落后于 Amazon 和 Microsoft Corporation,Pichai 表示谷歌需要继续投资云业务以"确保我们能够满足客户需求的增长"。
Alphabet 股价周三纽约开盘后最多下跌 8.7%。
投资者敦促 Alphabet 在加大 AI 投资的同时,证明其各项业务都保持良好势头,尤其是在该市场竞争加剧的情况下。中国 AI 初创公司 DeepSeek 上月让硅谷感到意外,称其以远低于美国竞争对手的成本创建了一个强大的 AI 模型。在财报电话会议上,Pichai 称 DeepSeek 是一个"优秀的团队",但表示谷歌的模型在效率方面也表现出色。
不过,DeepSeek 的模型是开放使用的,而谷歌的模型则需要付费,这引发了对其在 AI 和搜索方面的优势可能在今年"显著削弱"的担忧,Emarketer 高级分析师 Evelyn Mitchell-Wolf 通过电子邮件表示。
Synovus Trust 高级投资组合经理 Dan Morgan 补充说,这家科技巨头现在面临越来越大的压力,需要证明其在 AI 方面的投资如何转化为实际业务收益。
Morgan 表示,AI 热潮带来的最丰厚回报可能不会落入像谷歌这样推进模型发展的公司手中,而是会属于专注于芯片的公司。"你不想成为挖金子的人,"他说,"你想成为卖给他们工具的人。"
由于 Alphabet 计划建设数据中心和人工智能基础设施,Broadcom 股价在盘前交易中上涨超过 3%。
本季度,每股净收益为 2.15 美元,高于华尔街预期的每股 2.13 美元。
各部门业绩
搜索广告收入为 540 亿美元,略高于分析师预期。谷歌长期主导该市场,但目前面临来自 AI 竞争对手和反垄断挑战的双重威胁。
去年 8 月,美国法官裁定谷歌通过非法交易垄断搜索市场。司法部和多个州还指控谷歌在网站广告买卖技术方面违反反垄断法,损害出版商和广告主的利益。这两个案件的关键程序预计将在 2025 年进行。
视频流媒体网站 YouTube 的收入为 105 亿美元,超过分析师预期的 102 亿美元。在与投资者的财报电话会议上,首席商务官 Philipp Schindler 表示,YouTube 早期对播客的投资正在获得回报,这些播客在美国大选期间很受欢迎,推动了双方广告支出的增加。
Alphabet 的 Other Bets(其他投注)业务,包括生命科学部门 Verily 和自动驾驶汽车项目 Waymo 在内的未来主义业务集合,实现收入 4 亿美元,低于预期的 5.92 亿美元。Alphabet 一直在积极扩展 Waymo,该公司最近宣布计划在 2025 年在 10 个新城市进行测试。但其他部门面临着分拆为独立初创公司的压力。
在周二的电话会议上,Pichai 表示,Waymo 目前平均每周运营 15 万次行程,并将很快在东京进行首次"国际公路旅行"。他补充说,公司正在开发新版本的 Waymo 驾驶技术,这将降低硬件成本。
好文章,需要你的鼓励
这项由华盛顿大学和新加坡国立大学研究团队提出的ScaleKV技术,针对视觉自回归模型中的内存瓶颈问题提供了创新解决方案。研究发现不同变压器层具有不同的缓存需求,将它们分为需要大量历史信息的"起草者"和专注于当前细节的"精细器",实现了尺度感知的KV缓存分配。实验表明,该方法能将Infinity-8B模型的内存需求从85GB减少到8.5GB,同时保持生成质量几乎不变,为高分辨率AI图像生成的普及应用铺平了道路。
这项研究提出了一种名为INTUITOR的创新方法,让大语言模型无需外部奖励即可自主学习推理能力。研究者利用模型自身的"自我确定性"作为唯一奖励信号,替代传统需要人工标注或答案验证的方法。实验表明,该方法在数学推理上与使用标准答案的方法相当,并在代码生成等跨领域任务上展现出更好的泛化能力。这为开发能在缺乏外部验证的情况下自我提升的AI系统开辟了新途径,对未来自主学习AI具有深远影响。
新加坡科技设计大学和字节跳动研究团队提出了"语音反向翻译"方法,解决语音识别中的数据稀缺问题。研究表明,仅用几十小时的标注语音数据就能训练TTS模型生成数万小时高质量合成语音,将数据扩充数百倍。他们引入归一化可理解度指标评估合成语音质量,确定了合成数据能有效增强ASR性能的质量阈值。将方法扩展到十种语言,生成了50万小时合成语音,对Whisper-large-v3模型进行预训练,平均降低错误率30%,对低资源语言尤其有效,错误率降低46%。
WINA是一种由微软等机构研究人员开发的训练无关稀疏激活框架,它通过同时考虑隐藏状态大小和权重矩阵的列式l2范数来加速大型语言模型推理。与仅基于隐藏状态选择神经元的现有方法不同,WINA能更精确识别影响模型输出的关键神经元,在理论上提供更紧的误差界限。实验证明,WINA在相同稀疏度下比最先进方法表现更优(提升最多2.94%),同时减少高达65%的计算量,为资源受限环境中部署大型语言模型提供了高效解决方案。