Grok正在向编程领域的竞争对手发起挑战。埃隆·马斯克旗下的xAI本周发布了一款专为开发者设计的新AI模型,称其为"快速且经济的推理模型",专门用于协助编程项目。
这款名为grok-code-fast-1的新模型,完善了今年早些时候发布的Grok 4模型系列。该编程模型属于智能体类型,意味着它能够在无需大量人工监督的情况下处理任务。xAI声称其模型表现超越了OpenAI的GPT-5、Anthropic的Claude 4以及xAI自家的Grok 4,能够解决70.8%的真实软件问题,这一数据基于SWE-bench评估标准。
不过,模型说明文档指出,该编程模型的错误率比Grok 4更高,这一点被PCMag发现。因此用户需要对AI完成的关键工作进行二次检查。
xAI联合创始人Yuhuai Wu在X平台表示,这是众多编程模型中的第一款。他在推文中写道:"这是新模型系列的开始——Grok Code系列。这次我们专注于速度。当模型超级快速时,这是一种全新的体验。"
智能体AI工具已成为日益激烈的AI竞赛中的热门发展方向,OpenAI、Anthropic和微软都各自发布了编程智能体版本。xAI的工具更类似于微软的产品,通过API提供服务,而非向付费的ChatGPT或Claude用户开放。
用户可以在接下来几天内通过多个独家平台免费使用这款新模型,包括Github Copilot、Cline、opencode、Cursor、Kilo Code、Roo Code和Windsurf。用户需要API密钥,价格按使用量计费。xAI还专门为编程模型制作了提示工程指南,帮助开发者充分利用该工具。
AI在编程项目中的应用是一个复杂的问题。生成式AI工具如聊天机器人已被证明是帮助初学者快速提升技能和协助专业人士解决问题的有效工具。智能体AI开始展现其在自动化非核心任务方面的能力。
这引发了一个问题:自动化工具是否会导致大规模就业中断,特别是对年轻软件工程师而言。斯坦福大学的一项新研究发现,职业生涯早期且大量接触AI的工作者面临高风险,如软件工程和客户服务领域。
常规的Grok聊天机器人和X/Twitter助手曾引发争议。今年夏天早些时候,该聊天机器人开始产生极端种族主义和反犹太主义内容,这发生在xAI创始人埃隆·马斯克发布"显著改进Grok"几天后。xAI随后撤回了更新,并表示已"采取行动禁止Grok在X平台发布仇恨言论"。
偏见始终是AI聊天机器人的问题,但Grok展示了这项技术如何快速演变为产生潜在滥用内容的工具。
Q&A
Q1:grok-code-fast-1是什么?有什么特点?
A:grok-code-fast-1是马斯克旗下xAI公司发布的专门用于编程的AI模型,被称为"快速且经济的推理模型"。它属于智能体类型,能够在无需大量人工监督的情况下处理编程任务,主打高速开发体验。
Q2:grok-code-fast-1的性能如何?
A:根据xAI的测试数据,该模型能够解决70.8%的真实软件问题,表现超越了OpenAI的GPT-5、Anthropic的Claude 4以及xAI自家的Grok 4。不过需要注意的是,该模型的错误率比Grok 4更高。
Q3:如何使用grok-code-fast-1?价格如何?
A:用户可以通过Github Copilot、Cline、opencode、Cursor等多个平台免费试用几天。正式使用需要API密钥,价格按使用量计费。xAI还提供了专门的提示工程指南帮助开发者更好地使用该工具。
好文章,需要你的鼓励
中兴通讯在意大利米兰举办2025年全球峰会暨用户大会,以"拓展智能,创造可能"为主题,汇聚超过500名全球ICT领袖。中兴通讯CEO徐子阳发表主旨演讲,强调"连接+计算"战略,加速AI基础设施部署。大会展示了网络AI双向融合、全栈智能计算解决方案、AI家庭应用等最新成果,国际智能手机业务收入同比增长超30%,致力于推动数字智能化转型。
NVIDIA和卡内基梅隆大学联合开发的V2V-GoT系统,首次将图思维推理技术应用于多车协作自动驾驶。该系统通过让车辆共享观察信息,解决传统自动驾驶的视野盲区问题。采用9步思维框架,系统能准确预测交通动态并制定安全路径,将碰撞率降至1.83%,路径偏差仅2.62米,显著优于传统方法,为智能交通系统发展提供了重要技术突破。
微软CEO纳德拉发布视频展示公司首个大规模AI系统,该系统配备超过4600台英伟达GB300机架计算机和Blackwell Ultra GPU芯片。微软承诺将在全球部署数十万块Blackwell Ultra GPU。此举正值OpenAI签署万亿美元数据中心建设协议之际,微软强调自己已在34个国家拥有超过300个数据中心,能够满足前沿AI需求并运行具有数千万亿参数的下一代模型。
FBK研究院首次系统性揭示语音转文字模型中交叉注意力机制的解释局限性。研究发现,被广泛用作模型行为解释工具的交叉注意力仅能反映约50%的真实输入重要性,即使在最理想条件下也只能解释52%-75%的模型决策过程。这一发现挑战了传统认知,为开发更可靠的AI解释工具指明了方向。