经过几年将其开源的 Llama AI 模型仅作为 Connect 大会的一部分后,Meta 正在进行重大革新,主办一场全聚焦生成式 AI 的开发者大会,名为 LlamaCon,定于 4 月 29 日举行。此次活动完全在线进行,您可以在 Meta for Developers Facebook 页面对活动进行实时观看。
LlamaCon 将于美东时间 1PM / 美太时间 10AM 开始,由 Meta 首席产品官 Chris Cox、美 AI 副总裁 Manohar Paluri 以及研究科学家 Angela Fan 发表主题演讲。该主题演讲将介绍公司开源 AI 社区的发展情况、“ Llama 模型与工具集的最新动向”,并预览尚未发布的 AI 功能。
主题演讲之后,于美东时间 1:45PM / 美太时间 10:45AM 安排了一场对话,由 Meta 首席执行官 Mark Zuckerberg 与 Databricks 首席执行官 Ali Ghodsi 围绕“构建 AI 驱动应用程序”展开讨论;紧接着于美东时间 7PM / 美太时间 4PM,Zuckerberg 将与 Microsoft 首席执行官 Satya Nadella 探讨“ AI 的最新趋势”。虽然看来这两场对话均不会用来发布重大新闻,但鉴于 Microsoft 与 Meta 之前有过合作,任何惊喜均有可能出现。
传统上,Meta 并不会等待某个会议才发布 Meta AI 或 Llama 模型的更新。该公司早在 4 月初的一个星期六就推出了全新的 Llama 4 家族模型——这一系列模型在图像理解和文档解析方面表现尤为出色。目前尚不清楚 Meta 是否会为 LlamaCon 保留发布其他新模型或产品。
LlamaCon 将于 4 月 29 日通过 Meta for Developers Facebook 页面进行全程直播,让您能第一时间获取所有详情。
好文章,需要你的鼓励
Queen's大学研究团队提出结构化智能体软件工程框架SASE,重新定义人机协作模式。该框架将程序员角色从代码编写者转变为AI团队指挥者,建立双向咨询机制和标准化文档系统,解决AI编程中的质量控制难题,为软件工程向智能化协作时代转型提供系统性解决方案。
苹果在iOS 26公开发布两周后推出首个修复更新iOS 26.0.1,建议所有用户安装。由于重大版本发布通常伴随漏洞,许多用户此前选择安装iOS 18.7。尽管iOS 26经过数月测试,但更大用户基数能发现更多问题。新版本与iPhone 17等新机型同期发布,测试范围此前受限。预计苹果将继续发布后续修复版本。
西北工业大学与中山大学合作开发了首个超声专用AI视觉语言模型EchoVLM,通过收集15家医院20万病例和147万超声图像,采用专家混合架构,实现了比通用AI模型准确率提升10分以上的突破。该系统能自动生成超声报告、进行诊断分析和回答专业问题,为医生提供智能辅助,推动医疗AI向专业化发展。