就在SIGGRAPH(年度人工智能学术会议)召开期间,Nvidia宣布推出一个新平台,旨在让用户在PC或工作站上创建、测试和定制生成式人工智能模型,然后将其扩展到数据中心和公有云中。
“为了推动AI大众化,我们必须让它几乎可以在任何地方运行,”Nvidia创始人兼首席执行官黄仁勋在大会上表示。
被称为AI Workbench的服务可以通过在本地工作站上运行的界面访问,开发人员可以使用它来微调和测试来自Hugging Face和GitHub等流行社区的算法模型,并在需要扩展时访问云计算资源。
Nvidia计算副总裁Manuvir Das表示,推出AI Workbench是为了定制AI大模型。企业级人工智能项目可能需要在多个数据库中寻找合适的框架和工具,当项目需要从一个基础设施转移到另一个基础设施时,这个过程变得更加复杂。
当然,将企业模型投入生产的成功率很低。
来自KDnuggets的一项调研数据显示,大多数数据科学家表示,在部署机器学习模型之前,他们的项目中有超过80%是停滞不前的。根据Gartner的另一个预测数据,接近85%的大数据项目失败,都是因为基础设施障碍导致的。
“全球企业正在竞相寻找合适的基础设施并构建生成式AI模型和应用程序,”Das在一份预先准备的声明中表示。“Nvidia AI Workbench为跨组织团队创建基于人工智能的应用程序提供了一条简化的路径,这在现代商业中变得越来越重要。” 关于这条“简化”路径到底有多简化,目前还没有定论。但根据Das的观点是,AI Workbench允许开发人员从开源资源中汇集模型、框架、SDK和库,包括用于数据准备和数据可视化的库,进入一个统一的工作空间。
随着对人工智能(尤其是生成式人工智能)的需求增长,越来越多专注于将大型通用模型微调为特定用例的工具随之出现。像Fixie、Reka和Together这样的初创公司旨在使公司和个人开发人员能够更轻松地根据自己的需求定制模型,而无需支付昂贵的云计算费用。
通过AI Workbench,Nvidia提供了一种更为分散的微调方法,即在本地机器上进行,而不是在云服务上进行。这是有道理的,因为Nvidia及其产品组合的人工智能加速GPU将受益;Nvidia在宣布这一消息的新闻稿中并不掩饰其RTX系列产品的提及。但是,除了Nvidia的商业动机之外,这个提议可能会吸引那些不希望受制于单一云或服务进行人工智能模型实验的开发人员。
由于对GPU的人工智能驱动需求,Nvidia的收益达到了新的高度。
今年5月,该公司的市值曾一度达到1万亿美元,此前一季度的收入为71.9亿美元,比上一财季增长了19%。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。