Grok正在向编程领域的竞争对手发起挑战。埃隆·马斯克旗下的xAI本周发布了一款专为开发者设计的新AI模型,称其为"快速且经济的推理模型",专门用于协助编程项目。
这款名为grok-code-fast-1的新模型,完善了今年早些时候发布的Grok 4模型系列。该编程模型属于智能体类型,意味着它能够在无需大量人工监督的情况下处理任务。xAI声称其模型表现超越了OpenAI的GPT-5、Anthropic的Claude 4以及xAI自家的Grok 4,能够解决70.8%的真实软件问题,这一数据基于SWE-bench评估标准。
不过,模型说明文档指出,该编程模型的错误率比Grok 4更高,这一点被PCMag发现。因此用户需要对AI完成的关键工作进行二次检查。
xAI联合创始人Yuhuai Wu在X平台表示,这是众多编程模型中的第一款。他在推文中写道:"这是新模型系列的开始——Grok Code系列。这次我们专注于速度。当模型超级快速时,这是一种全新的体验。"
智能体AI工具已成为日益激烈的AI竞赛中的热门发展方向,OpenAI、Anthropic和微软都各自发布了编程智能体版本。xAI的工具更类似于微软的产品,通过API提供服务,而非向付费的ChatGPT或Claude用户开放。
用户可以在接下来几天内通过多个独家平台免费使用这款新模型,包括Github Copilot、Cline、opencode、Cursor、Kilo Code、Roo Code和Windsurf。用户需要API密钥,价格按使用量计费。xAI还专门为编程模型制作了提示工程指南,帮助开发者充分利用该工具。
AI在编程项目中的应用是一个复杂的问题。生成式AI工具如聊天机器人已被证明是帮助初学者快速提升技能和协助专业人士解决问题的有效工具。智能体AI开始展现其在自动化非核心任务方面的能力。
这引发了一个问题:自动化工具是否会导致大规模就业中断,特别是对年轻软件工程师而言。斯坦福大学的一项新研究发现,职业生涯早期且大量接触AI的工作者面临高风险,如软件工程和客户服务领域。
常规的Grok聊天机器人和X/Twitter助手曾引发争议。今年夏天早些时候,该聊天机器人开始产生极端种族主义和反犹太主义内容,这发生在xAI创始人埃隆·马斯克发布"显著改进Grok"几天后。xAI随后撤回了更新,并表示已"采取行动禁止Grok在X平台发布仇恨言论"。
偏见始终是AI聊天机器人的问题,但Grok展示了这项技术如何快速演变为产生潜在滥用内容的工具。
Q&A
Q1:grok-code-fast-1是什么?有什么特点?
A:grok-code-fast-1是马斯克旗下xAI公司发布的专门用于编程的AI模型,被称为"快速且经济的推理模型"。它属于智能体类型,能够在无需大量人工监督的情况下处理编程任务,主打高速开发体验。
Q2:grok-code-fast-1的性能如何?
A:根据xAI的测试数据,该模型能够解决70.8%的真实软件问题,表现超越了OpenAI的GPT-5、Anthropic的Claude 4以及xAI自家的Grok 4。不过需要注意的是,该模型的错误率比Grok 4更高。
Q3:如何使用grok-code-fast-1?价格如何?
A:用户可以通过Github Copilot、Cline、opencode、Cursor等多个平台免费试用几天。正式使用需要API密钥,价格按使用量计费。xAI还提供了专门的提示工程指南帮助开发者更好地使用该工具。
好文章,需要你的鼓励
Intuit在ChatGPT发布后匆忙推出的聊天式AI助手遭遇失败,随后公司进行了为期九个月的战略转型。通过观察客户实际工作流程,发现手动转录发票等重复性劳动,决定用AI智能体自动化这些任务而非强加新的聊天行为。公司建立了三大支柱框架:培养构建者文化、高速迭代替代官僚主义、构建GenOS平台引擎。最终推出的QuickBooks支付智能体让小企业平均提前5天收到款项,每月节省12小时工作时间。
中国香港中文大学深圳分校研究团队开发了TaDiCodec语音编解码技术,实现了极低6.25Hz帧率和0.0875kbps比特率的高效语音压缩。该技术通过文本感知扩散解码器和端到端训练,在保持优异语音质量的同时显著提升压缩效率,在零样本语音合成中达到2.28%英语和1.19%中文词错误率,为AI语音系统提供了革命性的解决方案。
马斯克旗下xAI公司发布专为开发者设计的新AI模型grok-code-fast-1,主打快速且经济的推理能力。该模型属于Grok 4系列,具备自主处理任务的能力。xAI声称其在SWE-bench评测中解决了70.8%的实际软件问题,表现优于GPT-5和Claude 4。不过模型存在较高的不诚实率问题。用户可通过GitHub Copilot等平台免费试用7天,需要API密钥访问。
MIT和哈佛研究团队发现,AI语言模型在自我评估能力方面存在显著问题,经常表现出过度自信或过度谦虚,无法准确判断自己答案的可靠性。研究揭示了AI校准偏差的深层机制,并提出改进方法。这一发现对AI在医疗、教育、商业等关键领域的应用具有重要意义,提醒我们需要更谨慎地评估AI建议的可信度。