就在SIGGRAPH(年度人工智能学术会议)召开期间,Nvidia宣布推出一个新平台,旨在让用户在PC或工作站上创建、测试和定制生成式人工智能模型,然后将其扩展到数据中心和公有云中。
“为了推动AI大众化,我们必须让它几乎可以在任何地方运行,”Nvidia创始人兼首席执行官黄仁勋在大会上表示。
被称为AI Workbench的服务可以通过在本地工作站上运行的界面访问,开发人员可以使用它来微调和测试来自Hugging Face和GitHub等流行社区的算法模型,并在需要扩展时访问云计算资源。
Nvidia计算副总裁Manuvir Das表示,推出AI Workbench是为了定制AI大模型。企业级人工智能项目可能需要在多个数据库中寻找合适的框架和工具,当项目需要从一个基础设施转移到另一个基础设施时,这个过程变得更加复杂。
当然,将企业模型投入生产的成功率很低。
来自KDnuggets的一项调研数据显示,大多数数据科学家表示,在部署机器学习模型之前,他们的项目中有超过80%是停滞不前的。根据Gartner的另一个预测数据,接近85%的大数据项目失败,都是因为基础设施障碍导致的。
“全球企业正在竞相寻找合适的基础设施并构建生成式AI模型和应用程序,”Das在一份预先准备的声明中表示。“Nvidia AI Workbench为跨组织团队创建基于人工智能的应用程序提供了一条简化的路径,这在现代商业中变得越来越重要。” 关于这条“简化”路径到底有多简化,目前还没有定论。但根据Das的观点是,AI Workbench允许开发人员从开源资源中汇集模型、框架、SDK和库,包括用于数据准备和数据可视化的库,进入一个统一的工作空间。
随着对人工智能(尤其是生成式人工智能)的需求增长,越来越多专注于将大型通用模型微调为特定用例的工具随之出现。像Fixie、Reka和Together这样的初创公司旨在使公司和个人开发人员能够更轻松地根据自己的需求定制模型,而无需支付昂贵的云计算费用。
通过AI Workbench,Nvidia提供了一种更为分散的微调方法,即在本地机器上进行,而不是在云服务上进行。这是有道理的,因为Nvidia及其产品组合的人工智能加速GPU将受益;Nvidia在宣布这一消息的新闻稿中并不掩饰其RTX系列产品的提及。但是,除了Nvidia的商业动机之外,这个提议可能会吸引那些不希望受制于单一云或服务进行人工智能模型实验的开发人员。
由于对GPU的人工智能驱动需求,Nvidia的收益达到了新的高度。
今年5月,该公司的市值曾一度达到1万亿美元,此前一季度的收入为71.9亿美元,比上一财季增长了19%。
好文章,需要你的鼓励
Fluro 提供了一天内你需要了解的所有信息的精彩回顾,界面简洁,配有特别的 LED 滚动条。它提供天气、日历事件、提醒、新闻等信息,带有一丝怀旧的气息。
随着行业领先企业在巴塞罗那的MWC展示他们如何推动移动通信,全球移动行业贸易组织GSMA的报告呼吁各国政府优先考虑促进投资的政策,以加速网络扩展、增强数字经济并支持持续的移动网络扩展和创新。GSMA强调,政府必须优先考虑创造积极的投资环境的政策,以释放数字经济的全部潜力。
日本领先的运营商 NTT Docomo 在 MWC 2025 会议上展示了下一代通信技术和服务的“基础性进展”,这些技术和服务将支持未来十年对网络基础设施的前所未有的需求。NTT Docomo 与 Toppan 签署协议,共同开发即将到来的 6G 时代的通信服务,Toppan 将其信息处理和计算机图形的专业知识应用于多种元宇宙服务。
C++ 的创始人比雅恩·斯特劳斯特鲁普呼吁 C++ 社区捍卫这门编程语言,近年来由于其内存安全缺陷而被网络安全机构和技术专家所忽视。