近日,在“世界阿尔茨海默病日(9月21日)”即将来临之际,由北京邮电大学、华为云、慧脑云、中国图象图形学学会脑图谱专业委员会、阿尔茨海默病防治协会影像学分会联合举办的“PRCV 2021阿尔茨海默病分类技术挑战赛”成功落下帷幕。本次大赛旨在提高基于影像的阿尔茨海默病早期识别准确性,推动脑科学、医学影像等智慧医疗产业发展,促进机器学习、深度学习等人工智能技术在智慧医疗中的落地应用。华为云为本次大赛的参赛者提供了总计超十万元的云计算资源。同时,大赛优胜方案将有机会获得华为云提供的专项资源来支持项目转化,并集成到“华为云AI脑科学平台”脑疾病辅助筛查专区。
比赛期间,共有373支队伍、1015名选手在华为云AI大赛平台报名参赛。其中,85%的参赛选手来自国内外200余所科研机构,包括清华大学、北京大学、中国科学院大学、北京邮电大学、牛津大学、哥伦比亚大学、多伦多大学等,遍布中、美、英、澳、加等7个国家。硕士、博士比例超过半数。
大赛组委会以测试集上的macro F1-score为依据,对队伍所提交的模型进行评分、排名。经评估,来自北京大学基础医学院的“邵世豪-崔庆华导师组”队伍以0.7033的分数位居第一,夺得冠军,其余16支队伍分别获得季军、亚军和优秀奖项。组委会将在第四届中国模式识别与计算机视觉大会(PRCV 2021)期间,于北京国际会议中心举行大赛颁奖仪式。
“PRCV 2021阿尔茨海默病分类技术挑战赛”获奖名单
作为本次挑战赛的唯一举办平台,华为云AI大赛平台公开了从2600位被试者中提取出的经脱敏处理的多中心、多脑图谱的脑影像特征数据的训练集。千余名参赛者基于训练集中的灰质体积和平均皮层厚度数据,使用了AAL、Gordon、MIST、Schaefer等脑图谱,利用华为云一站式AI开发平台ModelArts的能力,实现了从数据获取、模型搭建、模型部署,到模型判分等环节的一站式开发,探索能够用于阿尔茨海默病早期诊断的影像学标志,突破脑疾病影像数据的研究和应用现状。后续,基于ModelArts开发的华为云医学影像和脑科学平台,将给广大用户提供一系列AI+HPC赋能的脑影像和脑电分析处理模块,支撑研究及开发人员在脑疾病筛查、类脑计算、脑机交互等领域的高效创新,助力成果转化。
北京邮电大学人工智能学院刘勇教授表示,本次挑战赛不仅是PRCV 2021的官方赛事之一,同时也是利用机器学习、深度学习等人工智能技术解决阿尔茨海默病识别问题的一次创新性尝试,为新技术在智慧医疗中的落地与应用提供了可参考的有效路径。这个过程也验证了基于华为云一站式AI开发平台ModelArts和脑科学平台赋能脑科学研究的有效性和先进性。
冠军团队代表、北京大学基础医学院博士生邵世豪表示,从医学角度来看,一个细胞的分裂、分化乃至衰老,都涉及到极其复杂的代谢逻辑,这正好与人工智能技术的所长相符,这次大赛是团队将脑科学与人工智能技术结合的一次成功实践。华为云一站式AI开发平台ModelArts在开发和部署阶段提供了更高的资源配置、更快的读写速度,数据资源无需在开发环境手动挂载即可访问,方便科研工作者在线上进行快速开发;同时提供了更稳定的访问性能,支撑科研工作的可靠性。团队将基于本次赛事的设计成果,继续实验人工智能与医疗相结合的泛化性,希望将人工智能技术更好地应用于智慧医疗领域。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。