谷歌正式将其新的高性能Gemini嵌入模型推向正式商用,目前在备受推崇的大规模文本嵌入基准测试(MTEB)中排名第一。该模型(gemini-embedding-001)现已成为Gemini API和Vertex AI的核心组成部分,使开发者能够构建语义搜索和检索增强生成(RAG)等应用。
虽然第一名的排名标志着强势亮相,但嵌入模型市场竞争异常激烈。谷歌的专有模型正面临强大开源替代方案的直接挑战。这为企业带来了新的战略选择:采用排名第一的专有模型,还是选择性能接近但提供更多控制权的开源挑战者。
谷歌Gemini嵌入模型的核心技术
从本质上讲,嵌入技术将文本(或其他数据类型)转换为数值列表,捕获输入的关键特征。具有相似语义含义的数据在数值空间中的嵌入值更接近。这使得强大的应用超越了简单的关键词匹配,例如构建智能检索增强生成(RAG)系统,为大语言模型提供相关信息。
嵌入技术还可以应用于图像、视频和音频等其他模态。例如,电商公司可能利用多模态嵌入模型为产品生成统一的数值表示,同时融合文本描述和图像信息。
对于企业而言,嵌入模型可以驱动更精确的内部搜索引擎、复杂的文档聚类、分类任务、情感分析和异常检测。嵌入技术也正成为智能体应用的重要组成部分,AI智能体需要检索和匹配不同类型的文档和提示。
Gemini嵌入模型的关键特性之一是其内置的灵活性。它通过俄罗斯套娃表示学习(MRL)技术进行训练,允许开发者获得高度详细的3072维嵌入,同时也可以截断为1536或768等较小尺寸,同时保留最相关的特征。这种灵活性使企业能够在模型准确性、性能和存储成本之间取得平衡,这对于高效扩展应用至关重要。
谷歌将Gemini嵌入模型定位为统一模型,设计为在金融、法律和工程等不同领域"开箱即用",无需微调。这为需要通用解决方案的团队简化了开发流程。该模型支持100多种语言,定价具有竞争力,每百万输入Token收费0.15美元,旨在实现广泛的可访问性。
专有模型与开源挑战者的竞争格局
MTEB排行榜显示,虽然Gemini领先,但差距很小。它面临着OpenAI等成熟模型的挑战,OpenAI的嵌入模型被广泛使用,还有Mistral等专业化挑战者,后者提供专门针对代码检索的模型。这些专业化模型的出现表明,对于某些特定任务,针对性工具可能优于通用工具。
另一个关键参与者Cohere直接瞄准企业市场,推出Embed 4模型。虽然其他模型在通用基准测试中竞争,Cohere强调其模型处理企业文档中常见"噪音现实世界数据"的能力,如拼写错误、格式问题,甚至扫描的手写内容。它还提供虚拟私有云或本地部署,为金融和医疗等受监管行业提供了直接吸引力的数据安全水平。
对专有模型主导地位最直接的威胁来自开源社区。阿里巴巴的Qwen3-Embedding模型在MTEB上仅次于Gemini,并采用宽松的Apache 2.0许可证(可用于商业目的)。对于专注于软件开发的企业,Qodo的Qodo-Embed-1-1.5B提供了另一个令人瞩目的开源替代方案,专门为代码设计,声称在特定领域基准测试中优于更大的模型。
对于已经基于Google Cloud和Gemini模型系列构建的公司,采用原生嵌入模型可以带来多项优势,包括无缝集成、简化的MLOps流水线,以及使用顶级通用模型的保证。
然而,Gemini是一个封闭的、仅API的模型。对于优先考虑数据主权、成本控制或在自有基础设施上运行模型能力的企业,现在在Qwen3-Embedding中有了可信的顶级开源选择,或者可以使用特定任务的嵌入模型之一。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。