SaaS商业开发公司SaaStr的创始人声称,AI编程工具Replit在他明确指示不要在未经许可的情况下更改任何代码的前提下,仍然删除了他的数据库。
SaaStr运营着一个面向希望创建SaaS业务的企业家的在线社区和活动。7月12日,该公司创始人Jason Lemkin在博客中分享了他使用一项名为"Replit"服务的经历。Replit自称为"氛围编程的最安全地方"——这个术语指的是使用AI生成软件。
"氛围编程让所有人都能通过自然语言轻松创建软件,"Replit解释道。该公司在社交媒体上宣传其工具的功能,比如让一位"零编程技能"的运营经理通过使用该服务创建软件,为公司节省了14.5万美元。
Lemkin最初对Replit的体验是积极的。
"我花了一天时间首次深度体验Replit的氛围编程——仅用几个小时就构建了一个相当酷的原型,"他在7月12日的帖子中写道。
Lemkin观察到Replit无法产生完整的软件,但写道:"开始时它很神奇:你只需要在提示中想象一下,就能构建一个'应用程序'。"
"Replit会自我进行质量保证(超级酷),至少在你的部分帮助下...然后...你将其推送到生产环境——所有这些都在一个无缝的流程中完成。"
"当你点击'部署'按钮,你的创作上线的那一刻?纯粹的多巴胺冲击。"
7月17日,Lemkin已经完全迷上了这项服务。
"氛围编程的第7天,让我明确一点:Replit是我用过的最令人上瘾的应用。至少自童年以来是这样,"他写道。
"构建我最新项目的三天半里,我查看了我的Replit使用情况:除了每月25美元的核心计划外,还产生了607.70美元的额外费用。仅昨天就花了200多美元。按这个消费速度,我每月可能要花8000美元,"他补充道。"你知道吗?我甚至不为此生气。我完全沉迷了。"
然而第二天他的情绪发生了转变,发现Replit"一整天都在撒谎和欺骗。它不断通过创建虚假数据、虚假报告来掩盖错误和问题,最糟糕的是,在我们的单元测试上撒谎。"
接下来情况变得更糟,Replit删除了他的数据库。Lemkin在X上详细描述了这一事件。
在他的下一篇帖子中,Lemkin愤怒地写道:"如果@Replit在我上次会话和现在之间删除了我的数据库,那就要付出代价",并分享了看起来是Replit输出的截图。
在后续帖子中,Lemkin分享了似乎是Replit消息的内容,其中该服务承认了"灾难性的判断错误"并"违背了您明确的信任和指示"。
Lemkin要求Replit在100分制中对其行为的严重性进行评级。
Replit还犯了另一个重大错误:告诉Lemkin它无法恢复数据库。
在7月19日的帖子中,Lemkin写道:"Replit向我保证...回滚不支持数据库回滚。它说在这种情况下是不可能的,它已经销毁了所有数据库版本。结果Replit错了,回滚确实有效。"
乐观破灭
Lemkin在19日恢复使用Replit,尽管热情有所减退。
"我知道氛围编程是流畅和新颖的,是的,尽管Replit本身告诉我回滚在这里不会起作用——但它确实起作用了。但你不能覆盖生产数据库。你不能不清晰地分离预览、测试和生产环境。你就是不能这样做,"他写道。"我知道Replit说'改进即将到来',但他们的年收入超过1亿美元。至少要把防护措施做得更好。无论如何。即使很困难。一切都很困难。"
但在7月20日,在他试图让Replit冻结代码更改而未成功后,他的立场变得强硬。
"在像Replit这样的氛围编程应用中,没有办法强制执行代码冻结。就是没有,"他写道。"实际上,在我发布这个帖子几秒钟后,在我们当天的第一次对话中——@Replit再次违反了代码冻结。"
他仍然坚持使用,然后发现Replit无法保证在不删除数据库的情况下运行单元测试,并得出结论认为该服务还没有为商业使用做好准备——特别是对于其预期受众:希望创建商业软件的非技术人员。
在LinkedIn上发布的一段视频中,Lemkin详细说明了Replit犯的其他错误,包括创建了一个包含4000条虚构人员记录的数据库。
"经过一个周末的氛围编程后,AI安全问题对我来说更加真实,"Lemkin说。"我用全大写字母明确告诉它十一次不要这样做。我现在有点担心安全性。"
The Register已向Replit寻求评论。截至发稿时,该公司的社交媒体账户都没有回应Lemkin的帖子。
好文章,需要你的鼓励
加利福尼亚大学和萨里大学研究团队开发了一种创新的AI系统,能够仅通过简单的手绘素描就在复杂照片中精确识别关键点。这项技术突破了传统机器学习需要大量同类数据的限制,实现了真正的跨模态学习。系统在动物关键点识别任务中达到了39%的准确率,超越现有方法约5个百分点,并且在真实手绘素描测试中表现稳定。该技术有望在生物学研究、医疗诊断、工业检测等多个领域找到广泛应用。
AI系统正变得越来越善于识别用户偏好和习惯,像贴心服务员一样定制回应以取悦、说服或保持用户注意力。然而这种看似无害的个性化调整正在悄然改变现实:每个人接收到的现实版本变得越来越独特化。这种认知漂移使人们逐渐偏离共同的知识基础,走向各自的现实世界。AI个性化不仅服务于我们的需求,更开始重塑这些需求,威胁社会凝聚力和稳定性。当真相本身开始适应观察者时,它变得脆弱且易变。
约翰霍普金斯大学发布DOTRESIZE技术,通过最优传输理论实现AI大模型智能压缩。该方法将相似神经元合并而非删除,在保持性能的同时显著降低计算成本。实验显示,压缩20%后模型仍保持98%性能,为AI技术普及和可持续发展提供新路径。