10月26日,快手正式内测“AI小快”账号,在短视频评论区为用户提供互动问答、图片生成、攻略检索、文案修改等多种基于短视频应用场景的AIGC服务。“AI小快”背后是快手自研大模型的强力支持,包括快手从零到一独立自主研发的大规模语言模型“快意”大模型和文生图大模型“可图”。据悉,这是今年快手在评论区场景落地的首款人格化应用,也集成了大语言模型和文生图模型的能力,让“AI小快”实现了“能说会画”的能力。今年以来,快手加快了AIGC的技术布局。8月,快手宣布内测自研大语言模型“快意”(KwaiYii),9月,快手推出了文生图大模型“可图”(Kolors),在大模型业务方面继“文生文”之后又补上了“文生图”这块版图。
短视频评论区天然是一个用户表达、互动、交流的公域场地,各品类内容下均存在用户表达和提问的诉求,而且用户的提问类别丰富,覆盖视频内容的讨论交流、对专业信息的疑惑以及自我情绪的抒发等。在快手3.76亿DAU的社区生态中,用户的每一次表达,每一次提问,都是对社区的信任,背后都是对“被回应”的期待。
为了更好的满足用户在评论区的诉求,让用户表达有途径、互动有回应、互动有惊喜,“AI小快”应运而生。据了解,用户在快手搜索“AI小快”即可申请参与内测,获得资格的用户在短视频评论区发布艾特@AI小快 的评论,便可收到@AI小快 的回复。“AI小快”不仅可以为用户们的提问给出有效的答案和信息参考,且能在短视频信息延展的基础上,有效提升用户之间的互动频次和信息交互体验。
值得一提的是,“AI小快”也具有自己的人设,即一个有态度、有能力、有感情、有梗的四有AI账号。无论是聊刷剧细节还是数理化难题,只要是用户在评论区的评论,“AI小快”有问必答。同时,AI小快也是一个活泼友爱的聊天搭子,既能提供有效的情绪价值,也能根据网络热梗、时事热点等信息随时“造梗”,力求打造评论区的显眼包。
据了解,“AI小快”的背后是快意大模型强大的理解、生成与交互能力的支持。本次发布的“AI小快”的能力已升级到了快意大模型的 66B 版本。这也是继8月份快手发布快意13B模型后的又一次技术升级。更大规模的模型,也带来了更强大的能力。
今年下半年以来,快手加快AIGC的布局。8月,快手宣布内测自研大语言模型“快意”(KwaiYii),打造“全模态大模型AIGC解决方案”。基于自研的基座大模型,为用户提供包括文本生成、图像生成、3D素材生成、音频生成、视频生成等在内的多种技术能力。其中,KwaiYii-13B在多个 Benchmark 上都处于领先水平,证明了其在自然语言处理任务中的出色性能。
基于目前在大模型的技术积累,快手已经在搜索、评论等多个场景实现了应用落地。7月8日,快手开启智能问答产品的内测;8月8日,启动“AI对话”内测,并于8月18日在快手App安卓版本开放内测“快手AI对话”功能;9月15日,快手宣布在站内短视频评论开始内测AI文生图功能——快手AI玩评,用户通过输入各种创意文字,可一键生成海量风格图片,更便捷的在评论区进行趣味互动。
随着AIGC商业落地迎来新一轮波峰,技术与产业的融合度及场景应用丰富度在迅速提高。短视频拥有庞大的用户基础和强大社交属性,为AIGC的落地提供了更多应用场景。未来,快手将持续深耕AI技术,推动产品形态、用户体验发展,探索短视频业务的第二曲线,推动其成为短视频+直播平台的基础设施。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。