技术项目通常需要精准分析 - 详细观察特定领域中什么是有效的,以及为什么它很重要。
AI 最具争议的方面之一就是这些技术细节 - 新技术将会消耗大量能源,我们需要关注数据中心运营的能源问题。
更多数据中心建设
随着 AI 几乎接管了商业和个人生活的各个方面,我们将需要更多的数据中心 - 对计算能力的需求将会激增,相应地也需要大量能源来运行这些系统。
我们如何优化并保持系统高效运转?
数字孪生技术是一种方法,这个过程可以向分析师展示任何给定系统可能发生的情况。
我在 IEEE 的资料中发现了数据中心数字孪生如何帮助设计的几个关键方式:
能源优化 - 利益相关者可以使用数字孪生来监控能源消耗和冷却情况,减少能源浪费并提高系统效率。
热量管理 - 系统可以观察温度的空间分布,并对气流和温度管理的其他方面进行建模。这反过来也有助于冷却。
灾难恢复 - 数字孪生可以帮助预测系统在自然灾害或其他紧急情况下会遭受什么影响。然后工程师可以进行改进,提高相关系统的耐用性。
安全优化 - 系统还可以加强安全性,以抵御黑客攻击和不法分子破坏数据中心的企图。
还有许多其他要点,但这些是数字孪生如何发挥作用的一些很好的例子。IEEE 在 AI 领域也是一个重要的声音。
世界的数字孪生
在气候科学中,我们可以使用数字孪生来模拟天气结果。这将帮助我们应对气候变化带来的影响。
具体来说,Nvidia 的 Earth-2 平台使用 AI 和模拟技术来可视化天气并预测其对世界的影响。
以下是来自 Nvidia 网站的描述:
"Earth-2 加速系统将使气候科学家能够进行公里级的气候模拟,开展大规模 AI 训练和推理,并实现低延迟交互。NVIDIA Modulus 集成了对气候和天气模拟的众多神经网络模型的支持...NVIDIA Omniverse 支持超大规模、高保真、交互式可视化,可描绘全球天气状况。Omniverse Nucleus 包含一个数据联合引擎,可透明地访问外部数据库和实时数据源。"
这是数字孪生为应对气候变化所做贡献的另一个例子。
建立对话:
在 1 月份达沃斯的一个小组讨论会上,与会者包括 Nvidia 模拟研究主任 Mike Pritchard、IEEE 的 Dejan Milojijic,以及来自 EcoSattva 的 Natasha Zarine 和 MIT 城市技术与规划教授 Carlo Ratti。
这些专业人士讨论了如何管理系统,Pritchard 和 Milojijic 都提到数字孪生是一个重要的战略技术。
会谈摘录:
"我们确实在系统中使用技术和 AI。我们开发了一个应用程序来帮助我们监控工作,它非常有用。但是,我在这里也要说,我们学到的是技术和 AI 并不是灵丹妙药。" - Natasha Zarine
"我相信我们正处在一个根本性更有用的模拟技术的临界点,不仅因为它允许我们承认我们认为在数百年内不可能在行星尺度上模拟的物理学,而且因为一旦训练完成,AI 是交互式的。" - Mike Pritchard
"我们一直在努力将它们结合起来,因为它们中的任何一个都不能再独立存在了。" - Dejan Milojijic,谈到"电力和能源系统"
"我们一直在关注缓解措施,但对于缓解,建筑可以发挥重要作用,也需要许多其他学科和行业。" - Carlo Ratti
解答问题
因此,当人们问:"我们如何控制系统的能源足迹?"答案之一是通过这种深入的数据中心设计和运营建模。
而当人们问:"我们将如何应对气候变化的影响?"答案之一是使用数字孪生来预测我们的社区和全世界将会发生什么。
我认为这一点足够重要,值得在这里强调,因为我们正在迈入新的一年,并尽最大努力确保我们使用这些系统来改善我们的世界。
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。