微信公众号悄悄上线AI音色克隆,微信的一小步,却是AI的一大步。
AI音频的东西,在收到一些身边亲近人的语音的时候会产生一些警惕,但是我们家里的老人呢?他们很多人对现在的AI并不是很了解,一旦AI音色克隆放开,很容易就是骗子拿着你4、5秒的音频去发给你的爷爷奶奶舅舅舅妈,骗取他们的信任。
可能你会发现,你听到的不再是那个永远跟其他人一样,相同的男声。
此时,微信可能会用我的声音,来为你朗读出这篇文章。
之所以,我一直在说可能,是因为我虽然在后台设置好了,但是只有这篇新发的文章,我才能知道,我的声音到底有没有生效。
不过,再怎么说,这都是微信的一小步,却是AI的一大步,真的。
意外的发现公众号版本又更新了,更新到了2.29.1,当然版本号无所谓,重要的是,这个设置里面的新功能:朗读音色。
以前是绝对没有这个功能的,作为一个几乎以公众号为生的我,对公众号后台的一点点变动,都会非常的敏感。
点开以后,会有一个系统默认的音色,你可以,创建自己的音色。
点击创建新的音色,就会进入到一个新页面,会让你现场朗读一句话。
甚至会从你的实际文章中,抽取一些片段,来让你读,非常的有意思。
这里我正好也解释一下,为啥现在微信、豆包、kimi等等产品,在做AI音色克隆的时候,都要让你现场读一段文本,再用这段音频去做音色克隆,而不是让你随便上传一段音频呢?
前段时间三只羊AI音频事件,还有AI雷军国庆节在微博上骂了7天等等,我想大家应该都能感受到,AI克隆音色这玩意一旦放开,会有多少跟诈骗相关的风险。
一旦放开,可以随便上传一段音频,最开心的不是你我他,而是骗子。
看我号的读者,应该尚且知道AI音频的东西,在收到一些身边亲近人的语音的时候会产生一些警惕,但是我们家里的老人呢?他们很多人对现在的AI并不是很了解,一旦AI音色克隆放开,很容易就是骗子拿着你4、5秒的音频去发给你的爷爷奶奶舅舅舅妈,骗取他们的信任。
且万一有一些人,如果真的石乐志,克隆一些官员的声音,那...后果基本不敢设想。
所以,现在基本清一色都是这种方式,让你用实时录制的方式,念出文本上的随机的话,还不能念错。
在你读完这段话后,就会嘟嘟嘟的进入克隆的步骤,速度很快,大概十几秒就能完全搞定。
音色基本很完美,跟我声音一样,情绪是TTS的老问题了,不说了,整体质听感上,是还算OK的。
我测试了一下,老的文章还是不会变的,可能只有新的文章,才能支持我的音色。
所以只有这篇发出来,我才能知道,我的音色,来听全文,到底是个什么感觉,以及,到底会不会用我的音色。。。
其实,我脑子里幻想过,公众号到底会怎么接入AI,来帮这个可能是最大的长图文平台赋能。
想过AI创作,想过AI起标题,想过AI搜索,想过AI总结,但是没想到的是,来的第一个,居然是AI音色克隆。
不过其实细想想,也合理。
公众号这个载体,我一直调侃说,我可能是最后给公众号送终的那一批人。
短视频俯瞰众生,短图文在侧不断侵蚀羽翼,身后还有播客虎视眈眈。
长图文,变的越来越像一个日落西山的老人,守着自己的一亩三分地,尽可能的给大家种出最好的果实。
而公众号,作为长图文领域无与伦比的王者,非常坦率的讲,一直有一个在我看来很大的问题,过往很难解决,就是IP化很难。
短视频为什么做一个人的IP,比公众号简单很多?是因为内容载体。
在公众号上,你看到的永远是冷冰冰的文字,即使作者把这段话,写的登峰造极,写的舌灿莲花,你能看到的也依然是文字,是神交。
而短视频呢?你看到的不是文字,是一个具象化的人,你知道他长什么样,哦这个人有点长的有点潦草头发看着总是好久不洗,哦还有一个人带着眼镜总是说话的时候张不开嘴。
而那些内容,更是他亲口念出来的,你看到所有的文字,不是冷冰冰的文字,而是他在读,你听到的除了信息,还有情绪,还有他的笑与泪。
这就是为啥,在短视频上做IP,要比公众号,简单的多。
而这一次更新,我觉得很有趣的一点是,微信公众号这一次的更新,他们把声音,给补上了。
在过往,我们用文字表达思想,用图片传递视觉,现在又多了一个维度,可以用我们自己的的声音来传递情感。
声音终于成为了我们这群做图文内容的人的有机组成部分,而不在只是,机械的朗读。
我乐意看到微信的每一次变化,特别是跟AI有关的更新。
AI,很多时候就像空气一样,只有当你感受不到它,觉得他是我们生活中理所应当的一部分,这时候,AI就算是真正的成功进入每个你我一样的普通人的生活中了。
微信,作为可能是我们国内,最大的超级APP,没有什么,比他跟AI的结合,影响范围更广了。
以后的某一天,可能所有的公众号,都有了自己的专属声音。
0赞好文章,需要你的鼓励
推荐文章
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
总部位于圣地亚哥的AI公司耐能发布新一代KL1140芯片,这是首款能在边缘端运行完整变换器网络的神经处理单元。该芯片可将大语言模型从云数据中心转移到便携式本地设备中,四颗芯片组合可实现类似GPU的性能,支持1200亿参数模型运行,功耗降低三分之一至一半,硬件成本减少十倍。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。