Meta Platforms公司首席执行官马克·扎克伯格今日发布公开信,阐述了超级人工智能的出现以及公司将如何为其铺平道路。
"目前改进缓慢,但不可否认,"他写道。"开发超级智能现在已经在望。"
在信中,扎克伯格分享了Meta对这一AI新可能性的愿景,以及它将如何帮助人们摆脱他所认为的繁重劳动。在冗长的评论中,他讨论了技术的历史趋势如何颠覆工作,并"稳步解放了大部分人类,让他们减少对生存的关注,更多地追求自己选择的事业。"
从他的观点来看,AI将没有什么不同。"我非常乐观地认为,超级智能将帮助人类加快我们的进步步伐,"扎克伯格说。
他认为,超级智能应该专注于个人需求,而不是消除有价值的工作。许多AI专家指出,这项技术的兴起将导致就业市场的重大颠覆,其中一些变化已经在发生。
OpenAI首席执行官萨姆·阿尔特曼最近指出,某些类别的工作,如客户支持,可能是第一个被取代的。"现在你打电话给这些东西,AI会回答。它就像一个超级聪明、有能力的人,"他说。
扎克伯格表示,他希望让超级智能个人化,意思是将其交到人们手中。在他们的设备中,扩展他们的知识和能力,类似于移动设备如何通过将超级计算机放在人们的掌心中让人们变得超人。
Meta已经投入大量研发资源设计智能眼镜,让AI能够看到、听到并响应人们所经历的事情,扎克伯格相信这就是个人超级智能将通过其表现出来的媒介。
"深入了解我们、理解我们目标并能帮助我们实现目标的个人超级智能将是迄今为止最有用的,"他说。"像眼镜这样的个人设备,因为能看到我们所看到的、听到我们所听到的,并在一天中与我们互动而理解我们的情境,将成为我们的主要计算设备。"
虽然扎克伯格对AI超级智能造福人类表示乐观,但他的声明也表明了从向社区提供开源软件的退却。
"我们相信超级智能的好处应该尽可能广泛地与世界分享,"扎克伯格写道。"话虽如此,超级智能将引发新的安全担忧。我们需要严格缓解这些风险,并谨慎选择开源的内容。"
这似乎与扎克伯格一年前所写的内容相矛盾,当时他表示公司将在其AI工作中保持开源。一般来说,当开源软件产品发布时,它会公开提供,任何人都可以修改、使用和分发。
尽管Meta声称其许多模型属于这一类别,但应该注意的是,该公司的Llama AI模型系列有一个相当限制性的许可证。监督开源定义的组织开源倡议已公开表示,该许可证在多个方面都不符合要求。
例如,Meta限制用户在关键基础设施上或用于受管制的受控物质使用Llama模型。协议还要求用户在其模型使用在一个日历月内超过7亿月活跃用户时获得许可。这些限制都不符合开源定义。
尽管扎克伯格将把超级智能保持在专有包装下,但他总结说,他相信这个十年的剩余时间将是"决定这项技术将走向何方的决定性时期。"
当然,他还补充说,个人超级智能将通过公司的产品交付给数十亿Meta客户。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。