科技行业似乎对人类工人在他们所构建的基于 AI 的世界中所扮演的角色有两种看法:一种认为,除了他们自己以外,所有的工作最终都会由机器人来完成 (VC Marc Andreessen 似乎认为他作为投资者的工作永远不会被自动化)。
或者,他们认为机器人将承担那些肮脏、枯燥的工作,充当人类在工作中的伙伴,而人类则专注于机器人革命所创造的全新岗位。后者得到了历史证据的大力支持。世界经济论坛预测,现有技术趋势将淘汰 9200 万个岗位,但同时将创造 1.7 亿个新工作机会。
对于那些既没有经济实力,也没有兴趣攻读 AI 和机器学习硕士学位的人而言——尤其是那些目前从事仓库工人等非技术岗位的人——在充斥着机器人的未来,他们的处境究竟会是怎样的?
周三,Amazon 在宣布其新型能“感知”的 Vulcan 机器人取得重大进展,正朝着用机器人替代仓库工人的方向迈进时,暗示了其中的一种可能路径。
CEO Andy Jassy 在 X 平台上发布消息称:“Vulcan 正通过处理那些对人体工程学构成挑战的任务,来帮助提升工作安全性,同时为我们的团队成员提供机会,进而提升他们在机器人维护方面的技能。”
在同一篇博文中,Amazon 介绍了 Vulcan 机器人如何与人类协同工作,从仓库最高和最低的货架上取货,从而让人类无需整天爬梯子或弯腰取物。而人类则负责收集只存放在中层货架上的物品和/或那些这款新型“感知”机器人依然无法拾取的物品。
紧接着,Amazon 还提到,在将机器人用于更多仓库拣选任务的同时,正在培训少量的仓库工人成为机器人技术员。
博文中写道:“这些机器人在完成 75% 的客户订单中发挥了作用,并在 Amazon 创造了数百种全新职位类别,从机器人巡检员到现场可靠性维护工程师。” 文中还补充说,公司为部分员工提供了岗位再培训计划,以帮助他们获得机器人维护技能。
尽管 Amazon 没有明说,这显然并非一个一对一的转换。监管这些机器人的工作不会像直接处理仓库订单那样需要大量人力,也并非每个人都具备或渴望成为机器人维修技师的能力。
但 Amazon 在 Vulcan 公告中附带了岗位再培训计划的信息,这是非常有意义的。
这是因为目前尚几乎没有证据显示,在机器人替代所有工作的情境下,工薪阶层的人会面临怎样的困境 (一位 AI 初创公司创始人甚至曾向 TechCrunch 建议,在一个由 AI 完全承担所有工作的世界中,人类可能只依靠政府颁发的福利生活)。
但或许,将来不再是杂货店职员,而是出现“自动化监控员”,就像今天每排自助收银台都有一名店员监管一样。不再是快餐厨师,员工将负责监管烹饪机器人等等。操控机器人就像操作个人电脑一样:几乎每个人都需要掌握这项技能,才能保持就业竞争力。
不过这种全机器人化的未来可能永远不会真正实现。机器人可能仅限于像 Amazon 这样最大的、资金最雄厚的公司 (例如在汽车制造等领域中的应用),而绝大多数零售、餐饮和驾驶类工作仍将由人类完成,至少在未来几十年内如此。
请记住,Amazon 曾试图将其无人收费的自动化 Amazon Go 技术推向更广泛的零售/杂货行业。但零售业并不喜欢其最大的竞争对手 Amazon,对此也并不感兴趣。后来发现这项技术实际上使用了印度的人工看管和标注视频,甚至 Amazon 后来也逐步减少了其应用。如今,这类技术 (无论是 Amazon 还是其他公司开发的) 在实际应用中几乎看不见踪影。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。