就在SIGGRAPH(年度人工智能学术会议)召开期间,Nvidia宣布推出一个新平台,旨在让用户在PC或工作站上创建、测试和定制生成式人工智能模型,然后将其扩展到数据中心和公有云中。
“为了推动AI大众化,我们必须让它几乎可以在任何地方运行,”Nvidia创始人兼首席执行官黄仁勋在大会上表示。
被称为AI Workbench的服务可以通过在本地工作站上运行的界面访问,开发人员可以使用它来微调和测试来自Hugging Face和GitHub等流行社区的算法模型,并在需要扩展时访问云计算资源。
Nvidia计算副总裁Manuvir Das表示,推出AI Workbench是为了定制AI大模型。企业级人工智能项目可能需要在多个数据库中寻找合适的框架和工具,当项目需要从一个基础设施转移到另一个基础设施时,这个过程变得更加复杂。
当然,将企业模型投入生产的成功率很低。
来自KDnuggets的一项调研数据显示,大多数数据科学家表示,在部署机器学习模型之前,他们的项目中有超过80%是停滞不前的。根据Gartner的另一个预测数据,接近85%的大数据项目失败,都是因为基础设施障碍导致的。
“全球企业正在竞相寻找合适的基础设施并构建生成式AI模型和应用程序,”Das在一份预先准备的声明中表示。“Nvidia AI Workbench为跨组织团队创建基于人工智能的应用程序提供了一条简化的路径,这在现代商业中变得越来越重要。” 关于这条“简化”路径到底有多简化,目前还没有定论。但根据Das的观点是,AI Workbench允许开发人员从开源资源中汇集模型、框架、SDK和库,包括用于数据准备和数据可视化的库,进入一个统一的工作空间。
随着对人工智能(尤其是生成式人工智能)的需求增长,越来越多专注于将大型通用模型微调为特定用例的工具随之出现。像Fixie、Reka和Together这样的初创公司旨在使公司和个人开发人员能够更轻松地根据自己的需求定制模型,而无需支付昂贵的云计算费用。
通过AI Workbench,Nvidia提供了一种更为分散的微调方法,即在本地机器上进行,而不是在云服务上进行。这是有道理的,因为Nvidia及其产品组合的人工智能加速GPU将受益;Nvidia在宣布这一消息的新闻稿中并不掩饰其RTX系列产品的提及。但是,除了Nvidia的商业动机之外,这个提议可能会吸引那些不希望受制于单一云或服务进行人工智能模型实验的开发人员。
由于对GPU的人工智能驱动需求,Nvidia的收益达到了新的高度。
今年5月,该公司的市值曾一度达到1万亿美元,此前一季度的收入为71.9亿美元,比上一财季增长了19%。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
哈佛大学研究团队开发出LangSplatV2系统,实现了超高速3D语言查询功能。该系统通过创新的稀疏编码技术和高效渲染算法,将3D场景语言理解速度提升了47倍,达到每秒384帧的实时处理能力。系统采用全局语义字典和稀疏系数表示,彻底解决了传统方法中解码器速度瓶颈问题,为AR/VR、智能机器人等应用提供了强大的技术基础。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
马里兰大学研究团队提出了CoLa(Chain-of-Layers)方法,让AI模型能够根据任务难度动态调整内部层的使用策略,实现"快思考"和"慢思考"的灵活切换。通过蒙特卡洛树搜索算法,该方法在推理任务上显著提升了模型的准确性和效率,为75%的正确答案找到了更短的处理路径,并纠正了60%的错误答案,为AI模型的架构优化开辟了新方向。