特斯拉最近发布了其监督式FSD系统的碰撞数据,报告了不同配置和不同道路上汽车每次碰撞的平均行驶里程数。这取代了特斯拉几年来发布的臭名昭著的Autopilot数据,后者因极具误导性而受到广泛批评。特斯拉已经纠正了其方法论中的一些错误,现在声称使用FSD的汽车在全球城市街道上的安全记录比未使用FSD的同类特斯拉汽车好近1.5倍,比缺乏ADAS碰撞预警系统和其他主动安全工具的老款特斯拉好4倍。在北美,这一记录在所有道路类型上都好近2倍。
特斯拉的旧报告做出了虚假声明,称使用特斯拉Autopilot驾驶比驾驶普通汽车安全10倍。他们将主要发生在高速公路上触发安全气囊的特斯拉碰撞与整个人群的一般警察报告碰撞进行比较。这预计会好约5-6倍,因为大多数碰撞不会触发安全气囊,高速公路上每英里的碰撞要少得多,而且特斯拉驾驶员属于更安全的驾驶人群。因此,旧的比较使用了误导性的数学方法,使特斯拉Autopilot看起来比实际情况好得多。我是多年前第一个指出这一点的人。
特斯拉终于改变了他们的方法。他们从Autopilot(超过90%在高速公路上驾驶)转向FSD,并将高速公路和非高速公路的数据以及北美与全球结果进行了细分。这种详细程度有助于进行"苹果对苹果"的比较,这对此类研究至关重要。
特斯拉还将数据细分为部署了安全气囊或烟火式安全带收紧器的"重大碰撞"和未部署的轻微碰撞。对于非特斯拉汽车,他们没有这些数据,因此将需要拖车的碰撞视为重大碰撞,尽管这包括许多非安全气囊碰撞。因此,我认为特斯拉引用的"美国平均"数字与特斯拉的数字不能直接比较,但它们更接近,所以偏差较小。
这很好,因为我们想要研究的主要问题是"在监督FSD时驾驶是否让你更安全或更不安全?"两者都是可能的。理想情况下,监督像FSD这样的系统可以让道路上有两双眼睛。FSD在寻找和避免危险,注意力集中的人类驾驶员也在这样做。如果两者都能很好地完成工作,它们可能比单独的人类更安全。
另一方面,像FSD和Autopilot这样的工具已知会产生自满情绪。一些驾驶员甚至故意无视道路,或者在他们的汽车上安装"欺骗装置"以避免旨在阻止这种行为的驾驶员监控。这些驾驶员可能对自己和他人更危险,因为FSD还无法在无人监督的情况下单独匹配人类的驾驶能力。(即使是特斯拉也承认这一点,并在其机器人出租车试点项目中配置了安全驾驶员。)即使是不故意无视道路的驾驶员也可能变得更自满。
确实,会有各种各样的驾驶员。一些人会很勤奋,通过系统变得更安全,而另一些人可能不会。即使不勤奋的驾驶员不太安全,也存在一个伦理问题,即我们是否会禁止勤奋的驾驶员获得卓越的安全性,以防止害群之马。
如所呈现的,特斯拉的数据表明,总的来说,FSD正在发挥作用并平均提高安全性。这假设特斯拉没有继续其重新包装数据以使自己看起来更好的模式。他们在这方面的过往记录如此糟糕,以至于对此保持强烈怀疑是合适的。在接下来的几周里,将会有更多对其方法的分析来完善这些结论。实际上,特斯拉在其报告中突出了与美国平均估计的大多无效比较,表明他们没有放弃试图看起来更好的努力。
到目前为止,特斯拉还没有提供过去几个季度的这些数据,让我们看到特斯拉FSD转向新版本时的趋势线。他们承诺每季度发布新数据。埃隆·马斯克在努力发布FSD的机器人出租车版本时说,他们的目标是比人类驾驶得更好。他进一步表示,该系统将在今年年底前在无人监督的情况下工作。这些图表显示FSD表现良好,但距离准备好无人监督发布还很远,因为FSD+人类在城市街道上只比单独的人类表现稍好。他们需要单独的FSD比单独的人类好2-3倍才能做到这一点。
机器人汽车的过往历史表明,非常糟糕的自动驾驶系统与人类安全驾驶员结合通常是相当安全的。自动驾驶团队与安全驾驶员的记录在案的过错碰撞很少,即使他们每几英里就需要干预。(特斯拉的数据包括所有碰撞,不仅仅是过错碰撞。)好的自动驾驶系统实际上可以防止非过错碰撞,正如特斯拉在该数据页面上的视频中所展示的,显示FSD避免撞击闯红灯的汽车以及其他几起本来是其他驾驶员过错的碰撞。这是第二双眼睛效应的绝佳例子。
请继续关注更多分析,以及几个季度这些数据后的趋势线(或者如果特斯拉发布旧数据)。
Q&A
Q1:特斯拉FSD系统的安全性比普通驾驶提高了多少?
A:根据特斯拉最新发布的数据,使用FSD的汽车在全球城市街道上的安全记录比未使用FSD的同类特斯拉汽车好近1.5倍,比缺乏先进安全系统的老款特斯拉好4倍。在北美,这一记录在所有道路类型上都好近2倍。
Q2:为什么特斯拉之前的Autopilot安全数据被批评为误导性?
A:特斯拉旧报告将主要发生在高速公路上触发安全气囊的特斯拉碰撞与整个人群的警察报告碰撞进行比较,声称安全10倍。但这种比较忽略了大多数碰撞不触发安全气囊、高速公路碰撞率本身较低、特斯拉用户属于更安全驾驶人群等因素,使用了误导性的数学方法。
Q3:FSD系统能否完全取代人类驾驶员进行无人监督驾驶?
A:目前还不能。虽然数据显示FSD+人类监督比单独人类驾驶稍好,但距离无人监督驾驶还很远。专家认为需要单独的FSD比单独人类驾驶好2-3倍才能实现无人监督,而且即使是特斯拉也在其机器人出租车试点项目中配置了安全驾驶员。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。