在一则令人意外的公告中,新任 FDA 专员 Martin Makary 博士宣布,FDA 已完成了一个基于生成式 AI 的药品审评加速系统试点,并计划在 6 月底前在整个机构内部推广此系统。
Makary 博士在声明中表示,“我们的首个人工智能辅助科学审查试点取得的成功令我大为震惊。我们需要珍惜科学家的时间,并减少历来占据审查过程中大量非生产性忙碌工作的环节。全机构推广这些能力对加速新疗法的审查周期具有巨大潜力。”
公告中关于该技术或试点的详细信息非常有限。文中提到,由 Jeremy Walsh 监督此次推广工作,他几天前刚刚以 FDA 首任首席 AI 官员的身份加入该机构。Walsh 曾在政府承包商 Booz Allen Hamilton 工作 14 年担任首席技术专家,其中包括与 FDA 合作签订合约。WIRED 杂志昨天通过一篇独家报道引用匿名消息源披露,近期 OpenAI 的一个小团队曾与 FDA 及政府效率部( DOGE )的两位相关人员会面,Walsh 也参与了讨论。他们将该项目称为 “cderGPT”,这很可能是指 FDA 的药品审评中心。
尽管业内人士无疑会欢迎更快的药品审查速度,但这一公告也引发了关于患者安全的疑问。生成式 AI 众所周知容易出错,而此次推广时间表之快 —— 对于一个历来对来自 AI 工具的药品数据信任度如此谨慎的机构来说,这颇具讽刺意味。
Makary 博士在为缩短时间表进行辩护时强调了支持创新的紧迫性。
他说:“多年来我们不断在各类框架、会议和小组讨论中谈论 AI 能力,但我们不能再只停留在讨论上。现在是采取行动的时候了。将曾经需要数天完成的任务缩短到几分钟完成,这样的机会实在是太重要而不能拖延。”
这种紧迫感很可能也源于 FDA 最近宣布的裁员计划,这引发了对药品审批周期可能延迟的担忧。在本周波士顿举行的 AAPS 全国生物技术会议上,现任 MCRA 的前 FDA 员工 Alex Cadotte 博士讨论了这些裁员对审批周期的影响。
他解释说:“据我所知,至少从公开渠道来看,近期以及计划中的裁员行动基本上都是面向后勤支持人员,而非审查人员。因此,其直接影响可能不会马上显现,但从长远来看可能会有所体现。不过,总的来说,如果你有一个申请在 FDA 那里审查,从事审查的人员很可能不受影响。”
具有讽刺意味的是,Cadotte 指出,FDA 中许多已被裁员的员工曾是 AI 模型和机器学习方面的专家。
他说:“在 2 月 14 日的裁员中,其中 75% 的 AI 专家被永久解雇。许多人受邀返聘但均拒绝。这主要是因为他们进入了工业界,找到了更有利可图且更稳定的职位。我认为,这显然对我们所有人来说都是一个重大损失,因为现在 FDA 在了解这些模型方面的能力明显受到质疑。”
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。