书生·浦语基于InternLM2模型迭代出了InternLM2.5系统,7B参数!模型刚刚在 huggingface 上发布。该系列包含5个模型。
与上一代 InternLM2 相比,推理性能提高了20%。数学推理性能超过了Llama3、Gemma2-9B等
在1M上下文中实现高精度的“大海捞针”,在 LongBench 和 L-Eval 评测中达到同规模模型的领先水平
支持从100多个网页收集信息,在指令执行、工具选择和反思方面展现了更好的工具使用能力
参考文献:
[1] https://huggingface.co/collections/internlm/internlm25-66853f32717072d17581bc13
好文章,需要你的鼓励
NVIDIA团队开发的SANA-Sprint技术实现了AI图像生成的重大突破,将传统需要20步的生成过程压缩至1步,在H100上仅需0.1秒即可生成1024×1024高清图像,速度比现有最快模型提升10倍以上。该技术通过创新的混合蒸馏策略,在大幅提升速度的同时保持了图像质量,并支持实时交互应用,为AI绘画从专业工具向大众应用的转变奠定了基础。
初创公司Positron获得5160万美元A轮融资,推出专门针对AI推理的Atlas芯片。该公司声称其芯片在性能功耗比和成本效益方面比英伟达H100高出2-5倍,并已获得Cloudflare等企业客户采用。Positron专注于内存优化设计,无需液体冷却,可直接部署在现有数据中心。公司计划2026年推出支持16万亿参数模型的下一代Titan平台。
北京人工智能研究院团队开发的DiagNote模型通过模仿人类做笔记的习惯,解决了AI在多轮视觉对话中容易"失忆"的问题。该研究构建了专门的MMDiag数据集,设计了双模块协作的AI架构,让机器学会像人类一样通过标记重点区域来保持专注力,为更自然的人机视觉交流奠定了基础。