Grok是马斯克旗下公司xAI在去年11月发布的,一款类ChatGPT产品,可以提供生成文本、代码、邮件、信息检索等功能。其测试性能超过GPT-3.5、LLaMA 2 70B,弱于GPT-4。
目前,该产品仅为X Premium+客户提供服务,至今没有大范围对外开放使用非常神秘。
Grok简单介绍
根据xAI在官网公布的早期模型卡显示,首先开发团队先训练了一个330亿参数的原始大模型Grok-0,其性能相当于700亿参数的LLaMA 2,但仅使用其一半的训练资源。
然后基于Grok-0进行蒸馏、微调开发了Grok-1,在GSM8k、MMLU、HumanEval等多个测试平台显示,其性能全面超过了LLaMA 2-70B、GPT-3.5。但与Claude 2、GPT-4还有较大的距离。
由于这些基准测试是公开的,Grok-1的训练数据可能已经包含了测试答案。
随后,开发团队使用了2023年匈牙利全国高中决赛的数学题对Grok-1、Claude 2、GPT-4进行了人工测试。
结果显示,Grok-1 以 C (59%) 的成绩通过了考试,而 Claude-2取得了差不多的成绩 (55%),GPT-4 以 68% 的成绩获得了B,其推理能力还是挺不错的。
训练数据方面,Grok-1 发布版本所使用的训练数据截至 2023 年第三季度的互联网数据以及xAI人工智能导师提供的数据。
局限性,虽然 Grok-1 在信息处理方面表现出色,但需要对 Grok-1生成的内容进行审核。Grok-1 语言模型不具备独立搜索网络的能力,不是一个多模态的产品。
马斯克为什么开源Grok
本月初,马斯克正式起诉了OpenAI以及其联合创始人Sam Altman和Greg Brockman。
原因是,OpenAI违反合同协议、违反信托义务和不公平的商业行为,在发布ChatGPT等爆火产品后转向闭源并开始盈利。这与最初的开放AI造福人类理念截然相反。
马斯克作为OpenAI最初创始人之一,表示Altman 和 Brockman 在 2015 年说服他帮助创立OpenAI并为其提供资金,同时承诺该公司将是一家非营利性AI研究机构,专注于对抗来自谷歌等科技公司的竞争。诉讼称,基于创始协议要求 OpenAI 向公众 免费提供 其技术成果。
但根据OpenAI最新发布的回应邮件来看,为了更好的开发AGI,获取更多资金壮大产品线走营利模式,当时马斯克是同意的。
所以,马斯克在这个时间点选择开源Grok,估计和前几天起诉OpenAI的案件有关,兑现自己当年联合创立OpenAI时的“开源”诺言。
关于xAI
xAI成立于2023年7月13日,隶属于马斯克旗下。其核心团队成员曾经分别在DeepMind、OpenAI、谷歌研究、微软研究、特斯拉等前沿公司或多伦多大学等学术机构任职过。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。