新加坡国立大学(NUS)与Google宣布合作建立AI研究与创新中心,旨在推动应用人工智能研究并培养新一代AI从业人员。
该研究中心将成为双方合作的核心,提供资源和技术支持实验性及应用性AI项目。中心配备快速原型开发环境,这是一个由Google Cloud张量处理单元驱动的受控云端环境,让研究人员可以在实际部署前对AI应用进行实验、测试和验证。
研究初期将聚焦三大关键领域:
教育AI应用:利用Google Cloud的Vertex AI平台开发先进的成人教育工具,创建适应性学习路径和课程专属AI助手,支持新加坡推广终身学习的努力。
法律专用大语言模型:由新加坡国立大学法学院、AI研究所和计算机学院联合主导,开发针对法律领域的专用模型。该模型将基于本地法律解释和案例先例进行训练,克服通用大语言模型在法律语境中的局限性。预计最终将开发出支持法律研究的AI助手,有望提高律师事务所、司法部门和公众法律教育的工作效率和相关法律信息获取能力。
公共卫生A:通过整合基础模型与医疗保健、社会服务和环境系统的多元化数据,推动人群层面的健康成果改善。这将支持"更健康的新加坡"等国家预防保健计划,促进认知健康和积极老龄化。
Google Cloud新加坡和马来西亚国家总监Serene Sia表示:"通过结合新加坡国立大学世界级的多学科研究能力与Google的AI研究和AI优化云基础设施,这个联合中心有望引领安全负责的AI发展,加速在公共卫生、学习体验等重要领域的科学进步。"
Google还计划在新加坡国立大学建立AI人才培养项目,为学生和研究人员提供Google Cloud AI平台的培训和认证路径。此外,Google将支持大学设立AI教授职位,促进学术界与产业界的联系,为新加坡建立可持续的AI人才培养体系。
这次合作建立在Google与新加坡国立大学现有合作基础上。双方此前已在多个项目中合作,包括校内Google开发者社区建设、利用Google Cloud作为新加坡国立大学AI研究所的产业合作伙伴,以及在生物医学AI人才培养、使用Google NotebookLM制作全球首个AI驱动法律期刊播客、Google博士奖学金项目等方面的协作。
新加坡国立大学研究与技术副校长刘斌表示:"Google一直是新加坡国立大学的重要长期合作伙伴,我们很兴奋能够深化这种战略关系。我们相信与Google的联合努力将培养出下一代AI科学家、工程师和创新者,让他们具备应对现实世界挑战的能力。"
Q&A
Q1:新加坡国立大学与Google合作的AI研究中心主要做什么?
A:该研究中心将成为双方合作核心,提供资源和技术支持实验性及应用性AI项目,配备Google Cloud张量处理单元驱动的快速原型开发环境,让研究人员在实际部署前对AI应用进行实验、测试和验证。
Q2:研究中心重点关注哪些AI应用领域?
A:中心初期将聚焦三大领域:教育AI应用(开发适应性学习路径和AI助手)、法律专用大语言模型开发(基于本地法律解释和案例训练)、以及公共卫生AI(整合医疗和环境数据推动健康成果改善)。
Q3:这个合作对新加坡AI人才培养有什么帮助?
A:Google将在新加坡国立大学建立AI人才培养项目,为学生和研究人员提供Google Cloud AI平台培训和认证,还将支持设立AI教授职位,加强学术界与产业界联系,为新加坡建立可持续的AI人才培养体系。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。