FutureHouse,一个由 Eric Schmidt 支持的非营利组织,旨在未来十年内打造一位 “AI 科学家”,现已推出其首个重大产品:一个平台和 API,内置 AI 工具,用以支持科学研究工作。
目前有许多初创企业竞相开发面向科学领域的 AI 研究工具,其中一些背后拥有大量风险投资资金的支持。科技巨头似乎也看好 AI 在科学中的应用。今年早些时候,Google 推出了 “AI co-scientist”,这是一款据称能够帮助科学家提出假设并制定实验研究计划的 AI。
OpenAI 和 Anthropic 的 CEO 均表示,AI 工具可以大幅加速科学发现,尤其在医学领域。然而,由于现阶段 AI 的不可靠性,许多研究人员并不认为它在引导科学进程方面特别有用。
FutureHouse 于周四发布了四款 AI 工具:Crow、Falcon、Owl 和 Phoenix。Crow 能搜索科学文献并回答相关问题;Falcon 可以进行更深入的文献搜索,包括科学数据库;Owl 用于查找某一特定领域内的既有研究;而 Phoenix 则利用工具帮助规划化学实验。
FutureHouse 在博客文章中写道:“与其他 AI 不同,FutureHouse 的 AI 可访问大量高质量的开放获取论文及专门的科学工具,它们具备透明的推理过程,并采用多阶段流程对每个信息源进行更深入的考量……通过将这些 AI 串联起来,实现规模化,科学家们可以大大加速科学发现的步伐。”
然而具有讽刺意味的是,FutureHouse 迄今尚未利用其 AI 工具取得任何科学突破或发现全新的成果。
开发 “AI 科学家” 的一大挑战在于需要预见无数个干扰因素。AI 在需要广泛探索、缩小大量可能性清单的场景中可能会派上用场,但目前尚不明确 AI 是否具备那种跳出常规框架、从而实现真正突破性的解决问题能力。
到目前为止,专为科学设计的 AI 系统的成果大多令人失望。2023 年,Google 曾表示借助其名为 GNoME 的 AI 合成了大约 40 种新材料,但外部分析显示,这些材料中没有一项实际上是全新的。
AI 的技术缺陷和风险(例如其容易出现“幻觉”的倾向)也使科学家们对将其用于严肃研究持谨慎态度。即便是设计良好的研究,也可能因表现不佳的 AI 而受到污染,其难以执行高精度工作。
实际上,FutureHouse 也承认其 AI 工具——特别是 Phoenix——可能会出错。
公司在博客文章中写道:“我们现在发布这些工具是为了快速迭代,请在使用过程中提供反馈。”
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。