就在SIGGRAPH(年度人工智能学术会议)召开期间,Nvidia宣布推出一个新平台,旨在让用户在PC或工作站上创建、测试和定制生成式人工智能模型,然后将其扩展到数据中心和公有云中。
“为了推动AI大众化,我们必须让它几乎可以在任何地方运行,”Nvidia创始人兼首席执行官黄仁勋在大会上表示。
被称为AI Workbench的服务可以通过在本地工作站上运行的界面访问,开发人员可以使用它来微调和测试来自Hugging Face和GitHub等流行社区的算法模型,并在需要扩展时访问云计算资源。
Nvidia计算副总裁Manuvir Das表示,推出AI Workbench是为了定制AI大模型。企业级人工智能项目可能需要在多个数据库中寻找合适的框架和工具,当项目需要从一个基础设施转移到另一个基础设施时,这个过程变得更加复杂。
当然,将企业模型投入生产的成功率很低。
来自KDnuggets的一项调研数据显示,大多数数据科学家表示,在部署机器学习模型之前,他们的项目中有超过80%是停滞不前的。根据Gartner的另一个预测数据,接近85%的大数据项目失败,都是因为基础设施障碍导致的。
“全球企业正在竞相寻找合适的基础设施并构建生成式AI模型和应用程序,”Das在一份预先准备的声明中表示。“Nvidia AI Workbench为跨组织团队创建基于人工智能的应用程序提供了一条简化的路径,这在现代商业中变得越来越重要。” 关于这条“简化”路径到底有多简化,目前还没有定论。但根据Das的观点是,AI Workbench允许开发人员从开源资源中汇集模型、框架、SDK和库,包括用于数据准备和数据可视化的库,进入一个统一的工作空间。
随着对人工智能(尤其是生成式人工智能)的需求增长,越来越多专注于将大型通用模型微调为特定用例的工具随之出现。像Fixie、Reka和Together这样的初创公司旨在使公司和个人开发人员能够更轻松地根据自己的需求定制模型,而无需支付昂贵的云计算费用。
通过AI Workbench,Nvidia提供了一种更为分散的微调方法,即在本地机器上进行,而不是在云服务上进行。这是有道理的,因为Nvidia及其产品组合的人工智能加速GPU将受益;Nvidia在宣布这一消息的新闻稿中并不掩饰其RTX系列产品的提及。但是,除了Nvidia的商业动机之外,这个提议可能会吸引那些不希望受制于单一云或服务进行人工智能模型实验的开发人员。
由于对GPU的人工智能驱动需求,Nvidia的收益达到了新的高度。
今年5月,该公司的市值曾一度达到1万亿美元,此前一季度的收入为71.9亿美元,比上一财季增长了19%。
好文章,需要你的鼓励
Hugging Face推出开源工具Yourbench,允许企业创建自定义基准来评估AI模型在其内部数据上的表现。这一工具通过复制大规模多任务语言理解基准的子集,以极低成本实现了对模型性能的精确评估。Yourbench的出现为企业提供了更贴合实际需求的AI模型评估方法,有望改善模型评估的方式。
Cognition AI 推出 Devin 2.0,这是其 AI 驱动的软件开发平台的更新版本。新版本引入了多项功能,旨在提升开发者与自主代理之间的协作效率。最引人注目的是,Devin 2.0 的起价从每月 500 美元大幅下调至 20 美元,使其更易于普及。新功能包括并行 Devin、交互式规划、代码库搜索等,有望提升开发效率并增强用户控制。
安迪·卡拉布蒂斯是一位杰出的CIO,她的职业生涯横跨多个行业和地区,经历了多次变革时刻。她在福特和通用汽车锻炼了领导力和技术专长,后来在戴尔、拜奥根和国家电网等公司担任高管,推动战略创新。本文总结了她对IT领导者核心技能的见解,包括战略沟通、情商、协作、远见卓识、变革管理和敏捷性等,对当今IT领导者具有重要参考价值。
边缘 AI 计算将使人形机器人、智能设备和自动驾驶等应用从数据中心和云端服务器解放出来,转移到制造车间、手术室和城市中心等场景。它能实现低延迟和自主决策,使 AI 无处不在,推动工业设施全面自动化,彻底改变商业和生活方式。边缘 AI 正在快速发展,各大科技公司纷纷推出相关硬件和软件平台,未来将为各行各业带来巨大变革。