Nvidia 在周二的一篇博客文章中宣布,推出了一套新的 AI 工具,让拥有 RTX 硬件的用户能够更轻松地在本地计算机上运行 AI 模型。
这套名为 Nvidia NIM 微服务的工具,可以让包括最新发布的 50 系列在内的 RTX 显卡用户轻松在其设备上安装 AI,用于文本、图像和代码生成。其他使用场景包括语音处理、PDF 提取和计算机视觉。该工具的目标是让使用变得尽可能简单。如果你拥有一台搭载 RTX 的设备,只需下载所需的 NIM 应用程序并运行即可。例如,如果你想转录课堂讲座,只需下载 parakeet;如果你录制的歌曲人声不清晰,只需下载 studiovoice。这些本地 AI 模型也将支持即将推出的 Nvidia DGX 系列专用 AI 计算机。
在本地运行模型的优势在于从长远来看可以节省成本。当使用 OpenAI 的 ChatGPT 或 Google 的 Gemini 等 AI 服务时,用户在需要付费之前能生成的内容是有限的。对于一般任务,大多数人不会触及这些限制。但在某些使用场景下,成本可能会逐渐累积。本地模型对可生成内容类型的限制较少,而且数据保留在设备上,这对处理敏感材料特别有用。
Nvidia 尚未立即回应记者的置评请求。
Nvidia 是 AI 领域最重要的公司之一。其芯片为包括 OpenAI、Google 和 DeepSeek 在内的新 AI 模型开发提供动力。由于每个主要科技公司都依赖 Nvidia 的硬件来推进 AI 发展,这使得该公司的估值达到了惊人的水平。去年,Nvidia 市值达到了 3 万亿美元。现在已经回落到更"适中"的 2.8 万亿美元。
但通过数千英里外的服务器运行所有 AI 服务也是一个重担。这就是为什么各公司一直在设备上本地实现较小的 AI 功能。例如,iPhone 16 和 Google Pixel 9 可以生成图像、编辑照片或总结文本,而无需咨询云端的 GPU 集群。这使得处理更快更高效。PlayStation 5 Pro 也使用 AI 来提升图像以获得更好的视觉效果和性能,据传任天堂 Switch 2 也将采用类似技术。Nvidia、AMD 和 Qualcomm 等芯片制造商都在致力于开发能够处理更多 AI 任务的硬件,以继续吸引科技巨头的投资。
虽然与 NIM 无关,但 Nvidia 还公布了一些针对游戏玩家的新闻。Nvidia 应用程序中新增了一个名为 Project G-Assist 的实验性 AI 助手。G-Assist 可以更好地帮助你优化应用程序和游戏,允许你运行实时诊断并获取性能优化建议。因此,如果你想在目前公认最美的游戏之一《刺客信条:暗影》中获得最高帧数,G-Assist 可以帮助你。G-Assist 还有一个 Google Gemini 插件,所以如果你对《Apex 英雄》中最适合使用的角色或《暗黑破坏神 4》的游戏技巧有疑问,都可以立即获得答案。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。