8月18日晚,快手公布基于自研大语言模型应用的最新进展——“快手AI对话”功能已经在安卓版本开放内测。参与测试的用户点击快手搜索首页右上角AI图标即可进入产品首页,选择输入内容对话或点击引导问题便可开启对话,或者触发「搜索智能问答」卡片,通过底部入口可以启用该功能。
据悉,“快手AI对话”依托于快手站内多元和有生命力的社区内容生态,通过互动对话的形式,可以帮助用户快速查找短视频、达人、百科等内容,体验全新的信息获取形态。同时,利用大模型背后海量的数据知识,“快手AI对话”为快手搜索打破了站内内容的生态壁垒,有望为提供全网检索服务,为用户提供全新的信息获取形态。
和传统大模型相比,快手AI对话是对于搜索新场景的探索。一方面将快手站内大量的内容资源作为索引,解决大语言模型AI幻觉的问题,提升回答准确性;另一方面也用更加有效地资源组织形式满足用户多元化需求,不仅覆盖生活常识、服务查询等内容,用户还可以进行追问,在个性化的场景中寻找到更适合自己的搜索结果。
借助大模型的能力,快手已经在多个应用场景开始新产品及功能的探索。此前,7月8日,快手宣布正在内测智能问答产品,在搜索场景中为用户带来智能问答和文本创作等新功能。8月8日,“快手AI对话”开启小范围测试,以搜索场景为入口,为用户提供更多元、便捷的搜索形态,大为降低用户的搜索使用门槛,让新技术带来的便利惠及更广泛的人群。据悉,这是短视频直播行业首个基于大语言模型落地的应用产品。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。