在一则令人意外的公告中,新任 FDA 专员 Martin Makary 博士宣布,FDA 已完成了一个基于生成式 AI 的药品审评加速系统试点,并计划在 6 月底前在整个机构内部推广此系统。
Makary 博士在声明中表示,“我们的首个人工智能辅助科学审查试点取得的成功令我大为震惊。我们需要珍惜科学家的时间,并减少历来占据审查过程中大量非生产性忙碌工作的环节。全机构推广这些能力对加速新疗法的审查周期具有巨大潜力。”
公告中关于该技术或试点的详细信息非常有限。文中提到,由 Jeremy Walsh 监督此次推广工作,他几天前刚刚以 FDA 首任首席 AI 官员的身份加入该机构。Walsh 曾在政府承包商 Booz Allen Hamilton 工作 14 年担任首席技术专家,其中包括与 FDA 合作签订合约。WIRED 杂志昨天通过一篇独家报道引用匿名消息源披露,近期 OpenAI 的一个小团队曾与 FDA 及政府效率部( DOGE )的两位相关人员会面,Walsh 也参与了讨论。他们将该项目称为 “cderGPT”,这很可能是指 FDA 的药品审评中心。
尽管业内人士无疑会欢迎更快的药品审查速度,但这一公告也引发了关于患者安全的疑问。生成式 AI 众所周知容易出错,而此次推广时间表之快 —— 对于一个历来对来自 AI 工具的药品数据信任度如此谨慎的机构来说,这颇具讽刺意味。
Makary 博士在为缩短时间表进行辩护时强调了支持创新的紧迫性。
他说:“多年来我们不断在各类框架、会议和小组讨论中谈论 AI 能力,但我们不能再只停留在讨论上。现在是采取行动的时候了。将曾经需要数天完成的任务缩短到几分钟完成,这样的机会实在是太重要而不能拖延。”
这种紧迫感很可能也源于 FDA 最近宣布的裁员计划,这引发了对药品审批周期可能延迟的担忧。在本周波士顿举行的 AAPS 全国生物技术会议上,现任 MCRA 的前 FDA 员工 Alex Cadotte 博士讨论了这些裁员对审批周期的影响。
他解释说:“据我所知,至少从公开渠道来看,近期以及计划中的裁员行动基本上都是面向后勤支持人员,而非审查人员。因此,其直接影响可能不会马上显现,但从长远来看可能会有所体现。不过,总的来说,如果你有一个申请在 FDA 那里审查,从事审查的人员很可能不受影响。”
具有讽刺意味的是,Cadotte 指出,FDA 中许多已被裁员的员工曾是 AI 模型和机器学习方面的专家。
他说:“在 2 月 14 日的裁员中,其中 75% 的 AI 专家被永久解雇。许多人受邀返聘但均拒绝。这主要是因为他们进入了工业界,找到了更有利可图且更稳定的职位。我认为,这显然对我们所有人来说都是一个重大损失,因为现在 FDA 在了解这些模型方面的能力明显受到质疑。”
好文章,需要你的鼓励
这期是技术加情怀了。极少数人基于热情和对卓越的执念,构建了数十亿人每天依赖但普通人从不知晓的基础设施。
这篇来自上海交通大学的研究构建了名为AcademiClaw的AI测试基准,收录了80道由本科生从真实学业困境中提炼出的复杂任务,覆盖25个以上专业领域,涵盖奥数证明、GPU强化学习、全栈调试等高难度场景。测试对六款主流前沿AI模型进行评估,最优模型通过率仅55%,揭示了AI在学术级任务上的明显能力边界,以及token消耗与输出质量之间近乎为零的相关性。
Antigravity A1无人机推出"大春季更新",新增AI智能剪辑、语音助手、延时摄影模式及升级版全向避障系统。用户可通过语音命令控制Sky Genie、深度追踪等核心功能,虚拟驾驶舱支持第三人称视角飞行。随着产品进入墨西哥市场,Antigravity全球覆盖已近60个国家,持续推动无人机向更智能、更易用方向发展。
Meta AI安全团队于2026年5月发布了代码世界模型(CWM)的预发布安全评估报告(arXiv:2605.00932v1)。该报告对这款320亿参数的开源编程AI在网络安全、化学与生物危险知识及行为诚实性三个维度进行了系统性测试,并与Qwen3-Coder、Llama 4 Maverick和gpt-oss-120b三款主流开源模型横向比较,最终认定CWM的风险等级为"中等",不超出现有开源AI生态的风险基线,可安全发布。