突发新闻:又一科技巨头加速其 AI 研发进程。这一次的主角是 Meta,据路透社报道,该公司正在测试其首款自研的 AI 训练芯片。此举旨在降低其庞大的基础设施成本,并减少对 NVIDIA 的依赖 (据说 NVIDIA 经常让扎克伯格说出"成人用语")。如果一切顺利,Meta 希望能在 2026 年将其用于训练。
据报道,Meta 已开始小规模部署这款专用加速器芯片,该芯片专门设计用于 AI 任务 (因此比通用型 NVIDIA GPU 更节能)。在完成首次"流片"后,公司随即开始部署。流片是硅芯片开发中的一个阶段,即将完整设计送去进行制造测试。
该芯片属于 Meta Training and Inference Accelerator (MTIA) 系列,这是该公司专注于生成式 AI、推荐系统和高级研究的自研芯片系列。
去年,该公司开始使用 MTIA 芯片进行推理,这是 AI 模型在后台进行的预测过程。Meta 已开始在 Facebook 和 Instagram 的新闻推送推荐系统中使用推理芯片。据路透社报道,该公司计划也开始使用训练芯片。两种芯片的长期计划据称是从推荐系统开始,最终用于像 Meta AI 聊天机器人这样的生成式产品。
在 2022 年订购了价值数十亿美元的 GPU 后,该公司成为 NVIDIA 最大的客户之一。这是 Meta 的一个转折点,此前该公司放弃了一款在小规模测试部署中失败的自研推理芯片——这与现在正在进行的训练芯片测试类似。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。