本文原文来自DataLearnerAI官方网站:
https://www.datalearner.com/blog/1051730035281379
2024年10月22日,Anthropic发布了两个新模型:升级版的Claude 3.5 Sonnet和全新的Claude 3.5 Haiku。升级版的Claude 3.5 Sonnet在保持原有价格和速度的基础上,实现了全面性能提升,尤其在编码领域取得了显著进步。新推出的Claude 3.5 Haiku则以与Claude 3 Haiku相同的成本和类似的速度,在多个评测中达到了与Claude 3 Opus相当的性能水平。
此次发布最引人注目的是Claude 3.5 Sonnet引入了一项突破性的新功能:计算机使用能力(Computer Use)。这项目前处于公测阶段的功能,使Claude能够像人类一样通过观看屏幕、移动光标、点击按钮和输入文本来操作计算机。
在2024年6月份,Claude发布了Claude Sonnet 3.5模型,该模型相比上一代模型提升明显。Claude模型分为三个版本,最强的是Opus,其次是Sonnet,最小但是最快的是Haiku模型。Sonnet 3.5模型甚至超过了此前的Claude Opus 3模型(即上一代Claude最强的模型)。而四个月后,Sonnet 3.5版本不变,Anthropic给它做了一个升级,目前大家一般称该版本模型为Claude Sonnet 3.5 New。
升级版Claude 3.5 Sonnet带来了以下关键改进:
在计算机使用能力方面,Claude 3.5 Sonnet New在OSWorld基准测试中取得了14.9%的成绩(仅使用截图输入),明显优于其他AI系统的7.8%。当允许更多操作步骤时,其成绩可提升至22.0%。
Claude Sonnet 3.5 New版本各个评测都是非常好,目前在常规的文本理解(MMLU)和编程水平(HumanEval)评测上都是全球第一,超过了GPT-4o模型。
DataLearnerAI官方评测排行榜收集的结果如下:
计算机使用能力(Computer Use)是Claude 3.5 Sonnet这次升级中最具突破性的新功能。这项创新使Claude能够像人类一样通过观察屏幕、移动光标、点击按钮和输入文本来操作计算机,而不是仅依赖特定的API或工具。这种方法标志着AI与计算机交互方式的重要转变,使模型能够使用为人类设计的标准工具和软件程序。
Anthropic为实现这一功能开发了专门的API,使Claude能够感知和交互计算机界面。其工作流程如下:
例如,当用户要求”使用我的计算机和在线数据填写这个表单”时,Claude可以:
尽管这项功能具有突破性意义,但目前仍处于早期阶段,存在一些限制:
基础操作挑战:
这项功能的使用建议如下:
尽管目前还处在早期阶段,但是这个功能的进化速度是可以预见的会很快!
Claude 3.5 Haiku作为Anthropic最快速模型的下一代产品,具有以下特点:
SWE-bench Verified评测
这是一个评估模型解决实际软件工程任务能力的基准测试,通过解决来自流行开源Python存储库的GitHub问题来进行评估。
模型 | 通过率 |
---|---|
Claude 3.5 Sonnet (New) | 49.0% |
Claude 3.5 Haiku | 40.6% |
Claude 3.5 Sonnet | 33.4% |
Claude 3 Opus | 22.2% |
Claude 3 Haiku | 7.2% |
数据显示,升级版Claude 3.5 Sonnet在代码开发能力上有了显著提升,通过率提高了近16个百分点。而新的Claude 3.5 Haiku也展现出强劲实力,其40.6%的通过率超过了原版Claude 3.5 Sonnet。
TAU-bench评测结果
TAU-bench评估模型在零售和航空领域的客户服务场景中与模拟用户和API交互的能力。
模型 | 零售领域 | 航空领域 |
---|---|---|
Claude 3.5 Sonnet (New) | 69.2% | 46.0% |
Claude 3.5 Haiku | 51.0% | 22.8% |
Claude 3.5 Sonnet | 62.6% | 36.0% |
Claude 3 Opus | 45.1% | 34.5% |
Claude 3 Haiku | 18.2% | 16.0% |
在这个评测中,升级版Claude 3.5 Sonnet在两个领域都取得了明显进步,特别是在较为复杂的航空领域提升了10个百分点。Claude 3.5 Haiku也展现出不俗实力,在零售领域的表现超过了Claude 3 Opus。
升级版Claude 3.5 Sonnet在多个视觉相关任务中都展现出强大实力:
评测项目 | Claude 3.5 Sonnet (New) | Claude 3.5 Sonnet | Claude 3 Opus | GPT-4o | Gemini 1.5 Pro |
---|---|---|---|---|---|
MMMU (validation) | 70.4% | 68.3% | 59.4% | 69.1% | 65.9% |
MathVista | 70.7% | 67.7% | 50.5% | 63.8% | 68.1% |
AI2D | 95.3% | 94.7% | 88.1% | 94.2% | - |
ChartQA | 90.8% | 90.8% | 80.8% | 85.7% | - |
DocVQA | 94.2% | 95.2% | 89.3% | 92.8% | - |
在视觉理解任务中,升级版Claude 3.5 Sonnet在大多数测试中都达到了最优水平,特别是在科学图表理解(AI2D)和图表问答(ChartQA)方面的表现尤为突出。相比其前代版本,新版本在数学视觉推理(MathVista)等领域都有明显提升。
通过这些评测结果可以看出,Anthropic在这次更新中不仅提升了模型的整体性能,还在专业领域如编程、视觉理解等方面取得了显著进步。特别是新增的计算机使用能力,虽然仍处于早期阶段,但展现出了AI与计算机交互的新可能性。
目前,Claude官网的聊天应用(Claude Chat)已经可以使用Sonnet 3.5 New模型了。而Haiku 3.5目前则是面向开发者开放。
话说,Sonnet 3.5都这么强了,Opus 3.5得变成什么样了!
这两个模型更多的信息参考DataLearnerAI模型信息卡地址:
Claude Haiku 3.5模型信息卡地址:https://www.datalearner.com/ai-models/pretrained-models/claude-3_5-haiku
Claude Sonnet 3.5 New模型信息卡地址:https://www.datalearner.com/ai-models/pretrained-models/claude-3_5-sonnet-new
好文章,需要你的鼓励
这项研究探索了语言神经元视角下多语言对齐如何增强大语言模型(LLMs)的多语言能力。研究团队提出了一种更精细的神经元识别算法,将激活神经元分为语言特定、语言相关和语言无关三类,克服了现有方法的局限性。基于这种分类,研究将LLMs多语言处理过程划分为四个阶段:多语言理解、共享语义空间推理、多语言输出空间转换和词汇空间输出。通过分析对齐前后不同类型神经元的变化,发现多语言对齐促进了更多语言相关神经元的共享使用,减少了对语言特定神经元的依赖,这也解释了"自发多语言对齐"现象。
这项由弗吉尼亚大学与Adobe研究院合作的研究突破了传统图像到视频生成的空间限制,提出了"Frame In-N-Out"技术,使物体可以自然地离开画面或新物体能够进入画面。研究团队创建了专门的数据集和评估方法,并设计了一种融合运动控制、身份参考和无边界画布的扩散变换器架构。实验结果表明,该方法在生成质量和控制精度上显著优于现有技术,为电影制作和创意内容创作提供了新可能。
浙江大学研究团队开发了首个评估视觉语言模型多视角空间定位能力的综合基准ViewSpatial-Bench,并揭示了现有模型在视角转换理解上的严重缺陷。通过自动化3D标注流水线构建的大规模数据集,他们训练出的多视角空间模型(MVSM)实现了46.24%的性能提升,为人机空间交互提供了新的解决方案,使AI系统能更好地理解人类视角下的空间关系,促进更直观的人机交流。
ByteDance团队提出的DetailFlow是一种创新的图像生成方法,通过"下一细节预测"策略实现从粗到细的自回归生成。它将图像编码为仅需128个令牌的1D序列,比传统方法少5倍,却实现了更高质量(2.96 gFID)和更快速度(提速约8倍)。该方法巧妙地模拟人类创作过程:先勾勒整体结构,再逐步添加细节,并通过自我纠错机制解决并行推理中的错误累积问题,为高分辨率图像生成提供了高效解决方案。