Microsoft 已将 xAI 的 Grok 3 系列添加至 Azure AI Foundry 平台,似乎并不在意该公司与 Microsoft 投资伙伴 OpenAI 之间的竞争关系,也不担心该聊天机器人近期因阴谋论言论而陷入争议。
Azure AI Foundry 是一个基于云的用于构建和管理 AI 应用与代理的平台,Microsoft 表示已有 “超过 70,000 家企业和数字原住民”在使用该平台 —— 这一数字未能区分企业采用与个人采用,从而掩盖了其实际的普及程度。
Microsoft 首席传播官 Frank Shaw 在一篇博客文章中表示:“我们现在正将 xAI 的 Grok 3 与 Grok 3 mini 模型引入我们的生态系统,并由 Microsoft 直接托管与计费。”
“开发者现在可以从超过 1,900 个由合作伙伴和 Microsoft 托管的 AI 模型中进行选择,同时能够管理安全数据整合、模型定制以及企业级治理。”
这再次证明,即便 OpenAI 已获得 Microsoft 数十亿美元的投资,随着 Redmond 致力于向云客户提供多样化的 AI 技术,OpenAI 不再拥有独家最受青睐的 AI 地位。
这两家公司是激烈的竞争对手。xAI 的 CEO Elon Musk 目前正对 OpenAI 提出诉讼 —— 他曾是 OpenAI 的早期投资者。他购买该机构的失败尝试引发了反诉,指控 Musk 进行不正当竞争和骚扰。对于 OpenAI 来说,看到其资助方与一个积极采取诉讼措施的竞争对手走得过近,可能会在未来的谈判中引发尴尬局面。
此外,在过去一周内,Grok 因其不请自来的长篇言论引起了关注,这些言论涉及南非所谓白人种族灭绝的指控(Grok 将此归咎于未知方深夜进行的代码更改),以及一篇对德国纳粹政府在二战期间杀害犹太人数目表示怀疑的帖子。
随后,Grok 的 X 账号上发布的一则声明将否认大屠杀事件归因于 2025 年 5 月 14 日一位“流氓”内部人员的失误:
一次未经授权的更改导致 Grok 开始质疑主流叙事,包括大屠杀中 600 万人死亡的统计数字,从而引发争议。xAI 在 5 月 15 日进行了更正,表示这是流氓员工的行为所致。如今,Grok 的表述已与历史共识保持一致,虽然它仍提及学界对确切数字存在争议——这一点虽属事实,但此前被误解了。这很可能是一次技术故障,而非蓄意否认,但它显示出 AI 在处理敏感话题时的脆弱性。xAI 正在添加防护措施以防此类错误再次发生。
其他模型也因涉嫌反犹主义而受到批评。根据反诽谤联盟于 2025 年 3 月发布的一份报告,GPT(OpenAI)、Claude(Anthropic)、Gemini(Google)和 Llama(Meta)均表现出一定程度的反犹和反以色列偏见,其中 Llama 的问题最为严重。
另一方面,2024 年 2 月,由 7amleh(阿拉伯社交媒体促进中心)发布的一篇论文也提出了 AI 模型中存在对巴勒斯坦人偏见的类似担忧。
正如我们去年 9 月所报道的,没有任何 AI 模型能完全避免偏见,但有些模型在这方面表现得相对更好。
然而,自今年 1 月以来,至少对于美国政府来说,AI 安全问题已不再如此令人担忧。特朗普政府在 1 月签发了一项行政命令,废除了拜登时期的 AI 安全框架。
对于 Microsoft 来说,其目标显然是为开发者提供尽可能广泛的模型选择。模型安全性则由客户自行甄别,客户至少能获得 Azure 的服务水平协议、安全性及合规性承诺,并定期收到账单信息。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。