Suno刚刚发布了其AI音乐制作模型的重大更新版本v5.5。与以往专注于提升音质和创造更自然人声的更新不同,v5.5版本的核心在于为用户提供更多控制权。此次更新包含三项全新功能:Voices、My Taste和Custom Models。
在发布说明中,Suno表示Voices是用户呼声最高的功能。该功能允许用户使用自己的声音训练声音模型。用户可以上传清晰的无伴奏人声、带有背景音乐的完整曲目,或者直接通过手机或笔记本电脑的麦克风进行录制。录音质量越高越清晰,所需的数据就越少。为了防止有人恶意盗用他人声音,Suno要求用户同时录制验证语句。不过,这一验证机制可能会被现有的名人声音AI模型所绕过。
一旦Voices功能完成训练,用户就可以让AI版本的自己为上传的音乐或AI生成的音频进行演唱。
为了进一步个性化输出效果,Custom Models功能允许用户使用自己的音乐来训练Suno。用户需要从自己的音乐库中上传至少六首曲目,并为定制模型命名。然后就可以使用该模型来指导v5.5对提示词的响应。
最后,My Taste功能会随着时间推移学习用户的品味和偏好。它会记录用户经常返回使用的音乐类型、情绪和艺术家风格,并在使用魔法棒自动生成风格时应用这些偏好。
虽然My Taste功能面向所有用户开放,但Voices和Custom Models功能仅限Pro和Premier订阅用户使用。
Q&A
Q1:Suno v5.5的Voices功能是什么?
A:Voices是Suno v5.5最受欢迎的功能,允许用户使用自己的声音训练声音模型。用户可以上传无伴奏人声、完整曲目或直接录制,训练完成后AI就能模拟用户的声音进行演唱。
Q2:Custom Models功能需要什么条件?
A:Custom Models功能需要用户从音乐库中上传至少六首曲目,并为定制模型命名。该功能允许用户用自己的音乐训练Suno,从而个性化AI的音乐生成效果。
Q3:哪些用户可以使用Suno v5.5的新功能?
A:My Taste功能面向所有用户开放,会学习用户的音乐偏好并自动应用。但Voices和Custom Models功能仅限Pro和Premier付费订阅用户使用。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。