中国搜索引擎巨头百度公司正在通过推出两款迄今为止最强大的模型来加强其在人工智能领域的布局,其中包括一个新的专注于推理的模型,据称其性能可以超越 DeepSeek 的 R1 模型。
百度首先在 2023 年推出了 Ernie 系列模型,随后在次年推出了 Ernie 4.0 Turbo,这是一次"重大升级"。
现在,百度公布了 Ernie X1,据称其性能与 DeepSeek R1 相当,但成本仅为竞争对手的一半。据路透社报道,该模型具有"更强的理解、规划、反思和进化能力",同时也是首个能够自主使用独立工具的"深度思维"模型。
在圣诞节前推出 R1 后,DeepSeek 已成为 AI 模型制造商需要超越的新标准。作为一个推理模型,R1 以匹配美国最佳 AI 模型的能力而脱颖而出,尽管其制造商在训练上的投入仅为竞争对手的一小部分。
至于百度的另一个模型 Ernie 4.5,它是一个更标准化的非推理模型,旨在与 OpenAI 的 GPT-4 竞争,但公司表示它具有"出色的多模态理解能力"和"更先进的语言能力"。其理解人类、生成响应的能力以及记忆能力也得到了提升。
多模态 AI 系统以其处理各种不同类型数据的能力而著称。例如,它们可以处理基于文本的提示、视频、图像或音频文件,并能够在这些格式之间转换内容。
除了多模态之外,据报道 Ernie 4.5 还具有"高情商",百度称这有助于它更好地理解网络梗和讽刺漫画。
DeepSeek 的出现重新激活了 AI 竞赛,尤其是百度对改善其命运充满期待。该公司是首批推出类似 ChatGPT 的 AI 模型的中国公司之一,但即使在国内市场也难以竞争,尽管声称其早期的 Ernie 模型与 OpenAI 的最佳模型不相上下。
这家总部位于北京的公司面临着来自国内科技公司的激烈竞争,包括 TikTok 母公司字节跳动和腾讯公司,这些公司的聊天机器人获得了更多用户。
然而,DeepSeek 的戏剧性登场颠覆了中国所有领先的 AI 公司,R1 的推出掀起了一场风暴,开创了更经济实惠的 AI 模型时代。此后,中国政府和数十家本地公司支持 DeepSeek,将其模型整合到自己的产品和服务中,让竞争对手不得不追赶。就连百度也采用了 DeepSeek R1,将推理模型与其标志性搜索引擎进行结合。
DeepSeek 的竞争对手决心迎头赶上,2 月份腾讯旗下的微信推出了一个新模型,声称其响应查询的速度甚至比 DeepSeek 更快。
同样在上个月,阿里巴巴集团表示将在未来三年内投资 3800 亿元人民币(约 520 亿美元)用于 AI 和云计算研究。
与此同时,百度也跟随 DeepSeek 的脚步,表示计划在今年晚些时候开源其 Ernie 模型的代码库。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。