FutureHouse,一个由 Eric Schmidt 支持的非营利组织,旨在未来十年内打造一位 “AI 科学家”,现已推出其首个重大产品:一个平台和 API,内置 AI 工具,用以支持科学研究工作。
目前有许多初创企业竞相开发面向科学领域的 AI 研究工具,其中一些背后拥有大量风险投资资金的支持。科技巨头似乎也看好 AI 在科学中的应用。今年早些时候,Google 推出了 “AI co-scientist”,这是一款据称能够帮助科学家提出假设并制定实验研究计划的 AI。
OpenAI 和 Anthropic 的 CEO 均表示,AI 工具可以大幅加速科学发现,尤其在医学领域。然而,由于现阶段 AI 的不可靠性,许多研究人员并不认为它在引导科学进程方面特别有用。
FutureHouse 于周四发布了四款 AI 工具:Crow、Falcon、Owl 和 Phoenix。Crow 能搜索科学文献并回答相关问题;Falcon 可以进行更深入的文献搜索,包括科学数据库;Owl 用于查找某一特定领域内的既有研究;而 Phoenix 则利用工具帮助规划化学实验。
FutureHouse 在博客文章中写道:“与其他 AI 不同,FutureHouse 的 AI 可访问大量高质量的开放获取论文及专门的科学工具,它们具备透明的推理过程,并采用多阶段流程对每个信息源进行更深入的考量……通过将这些 AI 串联起来,实现规模化,科学家们可以大大加速科学发现的步伐。”
然而具有讽刺意味的是,FutureHouse 迄今尚未利用其 AI 工具取得任何科学突破或发现全新的成果。
开发 “AI 科学家” 的一大挑战在于需要预见无数个干扰因素。AI 在需要广泛探索、缩小大量可能性清单的场景中可能会派上用场,但目前尚不明确 AI 是否具备那种跳出常规框架、从而实现真正突破性的解决问题能力。
到目前为止,专为科学设计的 AI 系统的成果大多令人失望。2023 年,Google 曾表示借助其名为 GNoME 的 AI 合成了大约 40 种新材料,但外部分析显示,这些材料中没有一项实际上是全新的。
AI 的技术缺陷和风险(例如其容易出现“幻觉”的倾向)也使科学家们对将其用于严肃研究持谨慎态度。即便是设计良好的研究,也可能因表现不佳的 AI 而受到污染,其难以执行高精度工作。
实际上,FutureHouse 也承认其 AI 工具——特别是 Phoenix——可能会出错。
公司在博客文章中写道:“我们现在发布这些工具是为了快速迭代,请在使用过程中提供反馈。”
好文章,需要你的鼓励
是德科技高级副总裁兼通信解决方案事业部总裁Kailash Narayanan现场指出,算力固然重要,但如果能耗过高,技术的实用性将大打折扣,因此,所有的高速、高性能计算,都必须在极低的功耗下实现,这是AI等技术能否大规模落地的核心前提。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。