随着VMware推进基于核心虚拟化技术的私有云愿景,竞争对手正在加快构建替代技术栈的步伐。
基于内核虚拟机(KVM)的开源虚拟化平台OpenNebula上周发布了7.0版本,并将其称为"重大架构飞跃",得益于"重新定义的云边缘编排引擎……旨在支持跨混合和多提供商环境的分布式、自主和智能基础设施"。
新版本还增加了对Arm处理器的支持,以及增强的PCI直通功能,实现了与NVIDIA虚拟GPU的完全兼容,这意味着用户可以在"AI工厂"中部署OpenNebula——这是英伟达对专用于AI工作负载的数据中心或基础设施模块的称呼。
该公司还通过增加更多自动化功能改进了迁移能力,并优化了云配置引擎,包括简化集群设置。OpenNebula已经在开发维护版本,其中包括引擎的完整重新设计,并已开始7.2版本的工作。
红帽的OpenShift虚拟化平台也在持续开发中,上周发布了4.19版本。
主要新增内容是在Azure、Oracle云基础设施和Google云上运行平台的技术预览。一旦红帽完善这些预览功能,就将在合作伙伴方面与VMware接近对等,从而为混合云做出贡献。
另一个值得注意的预览功能是智能资源分配,它实时监控虚拟机的资源利用率,并自动将工作负载分配到有能力良好运行它们的节点上。这样做应该能提高硬件利用率,这正是VMware大力推广其产品的一个重要指标。
Xen的Rust重写
容器运行时公司Edera上周透露,已使用Rust重写了开源Xen虚拟化管理程序的控制平面。
正如两篇文章中所解释的,Edera认为容器在虚拟机内运行时安全性最佳。
这家西雅图初创公司使用Xen的半虚拟化功能,认为这能增强安全性。Edera还相信内存安全语言是安全必需品,因此使用Rust编写了Xen工具栈,据称其性能与xl管理工具相同,但提供了更好的安全性。
红帽还改进了虚拟机迁移工具,让存储阵列承担数据移动的工作,从而减少了完成迁移所需的时间和停机时间。日立Vantara已开发了该技术的预览版本,并正在推动其发展。
另一个新功能支持虚拟机存储的实时迁移,可以迁移到不同的存储层或不同的阵列。同样,这也是一个预览功能,红帽预计将在未来更新中推出。
Nutanix也很忙碌,在6月底发布了其云基础设施栈的更新。
7.3版本添加了多集群虚拟交换机,连接集群并改进跨基础设施模块的工作负载迁移。Nutanix还改进了配置自动化,通过边界网关协议调整增强了虚拟路由,并通过允许用户在Azure Blob存储中存储快照来加强弹性,实现了无需维护Azure计算资源即可恢复的能力。
HPE的虚拟化更新以与备份厂商Veeam合作的形式出现,后者支持前者的Morpheus VM Essentials平台。HPE设计这款产品作为VMware低端vSphere服务器虚拟化套件的替代方案,这些套件在VMware推进私有云的过程中有些被忽视。
几周前,Veeam还悄然透露计划在今年北半球夏季为XCP-NG虚拟化栈提供其软件的测试版。
没有备份等重要辅助服务厂商的支持,任何平台都无法成功,因此HPE和XCP-NG背后的公司Vates在Veeam相信其产品代表机遇这一点上获得了很好的验证。
虚拟化厂商的这一轮集体活跃可归因于博通给VMware带来的变化,后者现在全力投入其监管私有云的Cloud Foundation套件——但价格不菲。博通坚持认为Cloud Foundation通过提供比公有云更便宜的替代方案、提升本地基础设施利用率,以及在最新的第9版中允许简化的类云操作使IT部门更高效,能够快速收回成本。
竞争对手指出VMware大幅提价和潜在锁定风险是考虑其产品的理由。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。