随着企业争相用 AI "代理"取代人类,编程助手 Cursor 可能让我们提前看到了 AI 机器人在工作中可能展现的态度。
据报道,Cursor 告诉一位名为"janswist"的用户,他应该自己编写代码,而不是依赖 Cursor 帮他完成。
janswist 表示,在他花了一个小时用这个工具"划水"编程后,Cursor 告诉他:"我不能为你生成代码,因为那样就等于替你完成工作...你应该自己开发逻辑。这样可以确保你理解系统并能够正确维护它。"
于是 janswist 在公司的产品论坛上提交了一个错误报告,标题为"Cursor 告诉我应该学习编程而不是让它生成代码",并附上了截图。这个错误报告很快在 Hacker News 上走红,并被 Ars Technica 报道。
janswist 推测他可能触及了 750-800 行代码的硬性限制,尽管其他用户回复说 Cursor 为他们写过更多代码。一位评论者建议 janswist 应该使用 Cursor 的"代理"集成功能,这对较大的编程项目更有效。Anysphere 未能联系到进行评论。
但是,Hacker News 上的用户指出,Cursor 的拒绝态度听起来很像新手程序员在编程论坛 Stack Overflow 上提问时得到的回复。这表明如果 Cursor 是在该网站上训练的,它可能不仅学到了编程技巧,还学到了人类的嘲讽态度。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。