Nvidia 推出了一款名为 Signs 的手语学习平台,其中包含美式手语 (ASL) 词库,可帮助学习者提升词汇量,并配备了 3D 虚拟教师。学习者可以通过摄像头获得实时反馈,AI 工具会分析其手语动作。该平台目前收录了 100 个手语词汇,主要关注手部动作和手指位置。用户还可以学习不同面部表情和头部动作的含义。
Nvidia 表示,计划将手语词库扩展到 400,000 个视频片段,涵盖 1,000 个手语词汇。Signs 用户可以为这个开源视频数据集做出贡献。该公司还计划向公众开放这些数据集,用于构建无障碍 AI 助手、视频会议功能和其他 AI 工具。
美国聋童协会执行董事 Cheri Dowling 在一份声明中表示:"大多数聋童都出生在健听家庭。为家庭成员提供像 Signs 这样易用的工具来尽早学习美式手语,使他们能够在孩子 6 到 8 个月大时就建立起有效的沟通渠道。而且,由于所有词汇都经过专业美式手语教师的验证,用户可以对所学内容充满信心。"
目前,该公司正与罗切斯特理工学院的无障碍和包容性研究中心合作改进平台,并计划在 Signs 词库中加入地区性用语和俚语。Nvidia 表示,数据集将于今年某个时候发布,而美式手语学习服务已经上线。
与此同时,Nvidia 正在筹备三月份的年度 GPU 技术大会,与会者也可以使用 Signs。该公司将于下周发布第四季度财报。
好文章,需要你的鼓励
Coursera在2025年连接大会上宣布多项AI功能更新。10月将推出角色扮演功能,通过AI人物帮助学生练习面试技巧并获得实时反馈。新增AI评分系统可即时批改代码、论文和视频作业。同时引入完整性检查和监考系统,通过锁定浏览器和真实性验证打击作弊行为,据称可减少95%的不当行为。此外,AI课程构建器将扩展至所有合作伙伴,帮助教育者快速设计课程。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
英国政府研究显示,神经多样性员工从AI聊天机器人中获得的收益远超普通同事。在Microsoft 365 Copilot试点中,神经多样性员工满意度达90%置信水平,推荐度达95%置信水平,均显著高于其他用户。患有ADHD和阅读障碍的员工表示AI工具为他们提供了前所未有的工作支持,特别是在报告撰写方面。研究表明,AI工具正在填补传统无障碍技术未能解决的职场差距,为残障人士提供了隐形的工作辅助。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。