诺丁汉大学的一项研究表明,人工智能和机器学习可以预测过早死亡,从而彻底变革预防医疗领域。
诺丁汉大学医疗数据科学家和医生组成的团队,在一项针对40岁至69岁年龄段、50多万人的研究中,开发并测试了他们基于计算机的机器学习算法系统,以预测慢性病早期死亡的风险,称取得了一定的成果。
该团队称,他们的人工智能系统不仅“预测结果非常准确”,而且“表现得比当前由人类专家开发的标准预测方法更好”。这项研究发表在了PLOS ONE“医疗和生物医学领域的机器学习”系列专题中。
诺丁汉大学的研究人员利用了英国生物样本库(UK Biobank)在2006年至2010年间收集到的人员健康数据信息,并一直追踪到2016年。英国生物样本库是英国医疗研究的一项重要国家资源,其目标是改善对严重疾病、危及生命疾病的预防、诊断和治疗,包括癌症、心脏病、中风、糖尿病、关节炎、骨质疏松、眼部疾病、抑郁症和痴呆症等。目前已经有50万人参与该项目,提供了他们的血液、尿液和唾液样本供未来分析,以及他们个人的详细信息,并同意该项目对他们的健康状况进行持续追踪。
研究人员表示,他们通过这项对死亡率预测的新研究,推进了该领域的人工智能发展。诺丁汉大学流行病学和数据科学助理教授Stephen Weng博士说:“我们开发了一套独特的整体方法,通过机器学习来预测过早死亡的风险,从而在这一领域迈出了重要一步。”
“在严重疾病的预防中,预防性医疗措施越来越多地受到重视,因此多年来我们一直致力于提高对大众的计算机化健康风险评估准确性。大多数应用都集中在一个疾病领域,但预测不同疾病死亡结果是一个非常复杂的过程,特别是考虑到可能带来影响的环境因素和个体因素。”
Weng说,他们使用计算机构建新的风险预测模型,将各种地理因素、生物因素、临床和生活方式——包括每天对水果、蔬菜和肉类的消耗——纳入对个人的评估中。
“我们将预测结果与来自国家统计局、英国癌症登记以及医院事件记录的死亡率数据进行比照,发现机器学习算法在预测死亡方面比人类专家开发的标准预测模型更加准确。”
该研究中采用了“随机森林”和“深度学习”等人工智能和机器学习模型。Weng说,他们反对传统使用的基于年龄和性别的“Cox Regression”预测模型,因为这种模型在预测死亡率方面很不准确。
这项新研究是建立诺丁汉大学团队此前的研究基础之上,此前的研究表明,四种不同的人工智能算法——随机森林、逻辑回归、梯度增强和神经网络——在预测心血管疾病方面明显优于当前心脏病学指南中所使用的算法。
这项研究与当前最突出的研究领域(诊断和预后领域)保持一致,并且在这个领域机器学习也在快速普及中。传统上说,预后(prognosis)是依赖于统计数据进行预测的,例如,预测某人未来患心脏病的风险。这种方法已经被证明有较高的预测准确性,并且得到了各种验证研究的验证和复制。“因此,对于使用机器学习开发的应用和算法来说,挑战不仅在于增强传统方法所能实现的结果,还要以类似透明和可复制的方式开发和报告结果。”
作者这样写道:“在大数据时代,人们非常乐观地认为,机器学习可以彻底变革医疗领域,为临床医生提供诊断评估和个性化治疗决策的方法。机器学习技术依赖于机器引导的计算方法——而不是人类引导的数据分析——以便在更标准的统计方法中将函数与数据进行匹配。机器学习仍然可以使用我们熟知的模型例如逻辑回归,同时其他很多机器学习技术并不适用预先确定的方法。例如,人工神经网络会确定‘最佳函数’,有效地对不同变量之间所有复杂关系和非线性关系进行建模,同时最大程度上减少预测结果和观察结果之间的误差。”
使用标准方法的预后建模已经得到了公认,特别是用于预测患单一疾病的风险。作者这样写道:“我们最近的一项研究将机器学习方法用于常规初级医疗数据进行的预后建模,结果表明预测心血管疾病的准确性有所提高......机器学习还可以用于探索更复杂的、具有多因素因果关系的结果,例如过早死亡。”
诺丁汉大学团队表示,未来他们将致力于研究他们开发的人工智能算法是否适用于其他人群。他们希望继续探索将这些系统用于其他日常医疗中的方法。研究人员预测,在未来开发能够为个体患者提供个性化医疗和定制风险管理的工具方面,人工智能将发挥至关重要的作用。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。