快速且经济的诊断是有效医疗保健的基石,然而每年仍有数百万人因为高昂的医疗成本和冗长的诊断程序而失去生命。
华盛顿大学保罗·G·艾伦计算机科学与工程学院的教授 Shyam Gollakota 正在直面这一关键问题,他利用无处不在的智能手机开发突破性的诊断工具,有望改变医疗保健的可及性,特别是在中低收入国家。
Gollakota 表示:"我们的理念是利用技术来积极影响全球人民,医疗保健就是其中一个领域。智能手机已被用来实现这一理念,为改善中低收入国家人民的生活开发出基于智能手机的经济实惠的医疗保健工具。"
他的努力为他赢得了享有盛誉的 2024 年 Infosys 奖,表彰他在移动系统、机器学习和移动医疗领域的开创性工作。奖项包括一枚纯金奖牌、荣誉证书和 10 万美元奖金。此外,他将参加新的 Infosys 奖驻地计划,在他选择的印度研究机构与研究人员合作一个月。
Gollakota 最具影响力的发明之一是一款用于检测睡眠呼吸暂停的智能手机应用程序。睡眠呼吸暂停是一种与高血压、中风和糖尿病相关的严重睡眠障碍。传统诊断成本高昂,但 Gollakota 的应用程序将智能手机转变为主动声纳系统。通过发射和分析反射声信号,应用程序的算法可以识别睡眠呼吸暂停事件。这个解决方案的优点在于其可及性——任何带有麦克风和扬声器的设备都可以使用它,潜在受益人群可达数百万。
俄勒冈州立大学校长、评审团主席 Jayathi Y. Murthy 说:"Shyam 的研究不局限于正式的边界。它跨越多个工程领域来解决社会问题,并渗透到中低收入国家。"
除了睡眠呼吸暂停,Gollakota 的团队还在使用智能手机检测血栓。通过利用手机的振动电机和摄像头,他们可以追踪铜颗粒的微小运动,并计算凝血酶原时间 (PT) 和国际标准化比值 (INR),这些是血液凝固的重要指标。
针对另一个全球健康问题——据世界卫生组织统计,影响全球 5.3% 人口的听力损失,Gollakota 还开发了可以筛查听力障碍的低成本无线耳机。
这些耳机结合复杂的无线感应算法,可以检测到耳蜗(负责将声波转换为电脉冲的内耳器官)发出的微弱声音。及早发现,特别是在新生儿中,对于减轻听力损失的长期影响至关重要。
Gollakota 的创新精神不仅限于医疗保健。受科幻小说的启发,他致力于为现实世界的问题创造实用解决方案。他在环境反向散射技术方面的工作,通过反射环境信号实现无电池无线通信,对节能和无线技术的未来具有重要意义。这项创新已在手机、相机、水下 Wi-Fi 和电力线网络等多个领域得到应用。
"我只是去解决那些尚未解决或没有得到足够关注的问题,"Gollakota 在班加罗尔的颁奖典礼上说。
Gollakota 的问题解决方法也体现在他在利用人工智能增强人类听觉感知方面的开创性工作中,这项技术允许对声场进行编程,使用户能够根据语义描述专注于特定声音或过滤掉不需要的噪音。这项对人类大脑来说都具有挑战性的复杂任务,为改善各种环境中的听觉体验开启了激动人心的可能性。
他的卓越成就获得了广泛认可,包括入选《麻省理工科技评论》35 岁以下 35 位创新者名单,两次入选《福布斯》30 岁以下 30 人榜单。他还获得了美国国家科学基金会职业奖。
16 年前设立 Infosys 奖以表彰 40 岁以下科学家开创性研究的 Infosys 科学基金会主席 Kris Gopalakrishnan 称赞获奖者:"今年的获奖者展示了非凡的奉献精神和创造力,为解决关键的全球挑战做出了贡献。他们的成就突出显示了科学生态系统的实力,并重申了我们的信念,即科学正在通向创造更美好、更可持续未来的正确道路上。"
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
阿布扎比科技创新研究院团队首次发现大语言模型生成的JavaScript代码具有独特"指纹"特征,开发出能够准确识别代码AI来源的系统。研究创建了包含25万代码样本的大规模数据集,涵盖20个不同AI模型,识别准确率在5类任务中达到95.8%,即使代码经过混淆处理仍保持85%以上准确率,为网络安全、教育评估和软件取证提供重要技术支持。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
斯坦福大学研究团队首次系统比较了人类与AI在文本理解任务中的表现。通过HUME评估框架测试16个任务发现:人类平均77.6%,最佳AI为80.1%,排名第4。人类在非英语文化理解任务中显著优于AI,而AI在信息处理任务中更出色。研究揭示了当前AI评估体系的缺陷,指出AI的高分往往出现在任务标准模糊的情况下。