富士通已与 Nutanix 合作,使其针对日语优化的大语言模型 ( LLM ) Takane 可以在 Nutanix Enterprise AI ( NAI ) 平台上使用。
这一验证意味着 Takane 现已成为通过 NAI 部署的认证大语言模型,该平台支持在本地和公共云环境下运行生成式 AI 模型,并可在 Nutanix Cloud Platform ( NCP ) 混合多云平台上使用。
富士通声称,与通用大语言模型相比,Takane 在处理日语任务时具有更出色的表现,能够应对混合字符集(平假名、片假名和汉字)、省略主语以及在日语商务沟通中常见的细微敬语表达等特定语言挑战。
这一举措主要面向那些希望利用生成式 AI 的企业,尤其是在日本的企业,这些企业在采用全球模型时常面临准确性问题,或由于数据敏感性、法规遵从要求或延迟要求而需要在私有环境中部署 AI 工作负载。
这标志着首次有专为日语优化的大语言模型获得 Nutanix AI 平台的验证。
在 NAI 上运行的 Takane 模型将最初通过富士通的 PrimeFlex 集成虚拟化平台为 Nutanix 提供。富士通表示,此举将有助于在限制使用公共云的组织中构建可靠的 AI 基础设施。
为满足混合部署的需求,即开发可能在公共云中进行,但生产环节则运行于本地或边缘,富士通指出,NAI 与 NCP 的兼容性可简化 AI 应用及数据在不同环境间的迁移与集成管理。
富士通计划从 2025 年 7 月起,以管理服务的方式通过 NAI 提供 Takane,并辅以其现有的富士通云托管服务,此服务旨在优化和管理包括在 NCP 上运行 Takane 的混合云运营环境。
该公司将这一产品作为 Fujitsu Uvance 业务计划的一部分,该计划致力于解决社会和商业挑战,特别是在金融、政府以及研发等高安全性领域内,预计 Takane 的能力将在私有或混合云环境中发挥最大的效益。
日本的主权 AI 推动
富士通与 Nutanix 的合作正值日本大力发展本土大语言模型能力之时。受语言需求、数据主权担忧及国家经济战略的驱动,日本科技巨头和研究机构纷纷投资于主要以日语数据训练的基础模型。
其中显著的努力包括 NTT 的 “tsuzumi” 大语言模型以及 SoftBank 在生成式 AI 开发领域的投资,同时 SoftBank 还与 OpenAI 合资成立新公司,致力于开发满足日本企业独特需求的 AI 代理。
去年 12 月, NEC 推出了其增强版 “cotomi” 模型,该模型因在日语基准测试中表现出色而备受推崇。此外,NEC 还宣称已开发出能够在保持生成式 AI 性能的同时,将 GPU 计算效率提高两倍的技术。
日本政府也明确表示支持构建本土 AI 生态系统,认为这对提升国家竞争力以及确保 AI 模型符合日本文化和商业情境至关重要。
富士通将 Takane 部署到像 Nutanix 这样的企业级混合云平台上,可视为实现本土 AI 理想的重要举措,为日本企业提供了在自身基础设施中安全运用生成式 AI 的多样化选择。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。