许多企业正在使用多个 AI 系统,但面向消费者的软件应用通常只嵌入一个。例如,Microsoft Office 的个人和家庭订阅计划仅提供 Copilot,但该公司在其 Azure AI Foundry 的模型目录中包含了 OpenAI、DeepSeek 和其他 AI 模型。最近,Microsoft 宣布用户很快也能在 Copilot + PC 上本地运行 DeepSeek R1。有趣的是,尽管正在调查 DeepSeek 可能滥用 Microsoft 和合作伙伴 OpenAI 服务的行为,他们仍然宣布了这一消息。但不仅仅是 Microsoft 在分发 AI 模型和工具方面表现矛盾,许多其他公司也是如此。这到底是怎么回事?
"当科技巨头竞相构建更大的语言模型时,企业却悄然揭示了一个令人不安的事实:大语言模型正在成为商品化的工具,而不是差异化解决方案,"事实核查公司 Infactory 的 CEO 兼创始人 Brooke Hartley Moy 表示。
这在整体格局中意味着什么?企业正将大语言模型 (LLM) 作为工具而不是万能解决方案使用。
Moy 补充道:"企业正在构建复杂的 AI 技术栈,将通用 LLM 作为基础设施,同时部署专门用于编码、设计、分析和特定行业任务的 AI 助手和代理。这种碎片化暴露了现有 AI 公司将自己标榜为完整解决方案的傲慢。"
消费者软件中嵌入的 AI 工具通常会在底层悄然加入额外的 AI 模型,以期打造真正的品牌差异化优势。
这就是为什么在工具和应用程序中使用或提供多个 AI 模型成为趋势。但为什么一个 AI 模型不够用?
LLM 是在变得更好还是更智能?
人们可能认为 LLM 随着每次新功能的发布都在改进或变得更智能。但这些模型真的变得更智能了,还是被包装下的幻象?
包装器(Wrapper)是字面意思上包裹在其他程序周围的代码或程序。这样做有多种原因。对于 AI 工具而言,包装器通常为底层应用程序添加功能,如生成式 AI 聊天机器人。在某些情况下,包装器运行得如此之好,以至于它们看起来像是更智能的 AI,而实际上它们只是拥有更多或更好的功能。
LLM 本身在每次升级或模型发布时并没有变得更智能,尽管它们在现有功能上变得更好了。即便如此,一个模型往往不足以完成专业水平的工作。
"只有当你不知道自己在做什么,因为最终用户的输入和目标以及要采取的输出和行动都非常多样化时,使用单一的、庞大的、单体的生成式 AI 模型才有意义,"Domino Data Lab 的 AI 战略主管 Kjell Carlsson 博士说。
Carlsson 补充道:"几乎在所有情况下,通过同时利用多个模型,你都可以获得更好的性能——更便宜、更快,可能更安全和更准确。这可以采取使用多个生成式 AI 模型协同工作的形式。"
这个不便的事实并未被现有的生成式 AI 提供商忽视。以搜索引擎 Perplexity AI 为例。它最初基于自己的模型开发,后来添加了结合 GPT-3.5 的速度和 GPT-4 功能的微调模型。再后来,它又添加了开源模型。如今,它由 GPT-4 Omni、Claude 3.5 Sonnet、Sonor Large、Grok-2 以及 OpenAI 的 O1 和 DeepSeek 的 r1 推理模型驱动。
混合使用 LLM 往往比单一模型能够建立更多的解决方案差异化。但混合搭配 LLM 也是要付出代价的。
IBM watsonx 产品管理高级总监 Maryam Ashoori 表示:"虽然利用多个模型有好处,但如果没有适当的编排,这也会带来挑战。企业需要全面的工具来训练、管理和保护他们的 AI,否则可能会陷入困境。"
多模态模型能否解救 – 或不能?
但是像 ChatGPT (GPT 4o)、Sora、Gemini 和 Claude 3.5 Sonnet 这样的多模态模型——AI 界的瑞士军刀呢?这些 AI 模型可以处理不同类型的输入或输出——可以单独使用或组合使用,如文本、代码、图像、视频和语音——就像新式多功能工具。它们难道不能做所有事情吗?
ABBYY 的 AI 战略高级总监 Maxime Vermeir 表示:"多模态听起来似乎是生成式 AI 在多方面处理过程中的不足的补救方案,但这在特定用途模型的背景下也更有效。多模态并不意味着一个可以在任何领域都表现出色的 AI 多功能工具,而是一个可以从文本之外的各种'丰富'数据形式中获取见解的 AI 模型,如图像或音频。尽管如此,这仍可以针对企业的利益进行缩小,例如准确识别特定文档类型中包含的图像,以进一步提高专用 AI 工具的自主性。虽然拥有多个生成式 AI 工具可能听起来比单一的全能解决方案更麻烦,但投资回报率的差异是显而易见的。"
但这并不是说庞大的 LLM 就没有用处。
RelationalAI 的研究 ML 副总裁 Nikolaos Vasiloglou 表示:"像 Claude、Gemini 或 ChatGPT 这样的大型模型通常足以完成更多任务,但它们可能很昂贵。通常更容易使用更小的专用模型,这些模型运营成本更低,而且可以在本地单机运行。"
Vasiloglou 补充道:"你总可以合并两个或更多专用 LLM 来解决更复杂的问题。另一方面,在许多任务中,特别是那些需要复杂推理的任务中,即使将小型模型组合在一起,它们也无法达到大型模型的性能。"
为什么员工和其他用户正在使用多个 AI?
员工和消费者可能知道或不知道他们喜欢的生成式 AI 聊天机器人下面有多个模型。但无论如何,更懂行的用户也会在他们这一端混合使用 AI。
Cody AI 的 CEO Oriol Zertuche 表示:"这很常见,因为不同的模型经过不同的训练,在不同的任务中表现出色。例如,Anthropic 的 Claude 在写作和编码方面表现出色,ChatGPT 擅长通用任务和与互联网对话,而 Gemini 是多模态的,具有超过 200 万个 token 的令人印象深刻的上下文长度,使其能够处理视频、音频、PDF 等。其他模型,如 Gemini 1.5,在所有方面都只是表现一般,所以可以用作通用生成式 AI。"
Zertuche 补充道:"这就像企业使用不同的工具来完成不同的任务,每个工具都有特定的用途。例如,电子邮件可以用于内部沟通,但现在有许多协作平台可以实现更即时和有效的沟通。"
此外,还需要从专用模型中提取输出,并在其他软件中组合它们,以生成统一的作品,如研究论文、广告或电子书。
根据 AI 是否适合特定领域使用,也存在使用的商业案例。例如,专门用于医学、学术研究、电影制作、金融或营销的模型和工具针对这些领域特有的任务、规则和词汇进行了优化。即便如此,一个模型或工具可能也不够用。
2X 的 CMO Lisa Cole 表示:"通过结合使用 OpenAI 的 o1 用于战略、Anthropic 的 Claude 用于创意写作以及 Google 的 Gemini Deep Research,营销人员可以在创造力、精确性、适应性和创新性之间取得平衡,以扩大他们的影响力。使用多个模型还可以避免供应商锁定,确保获得最前沿的进展,并允许针对特定任务进行优化,这可以提高效率和影响力。"
每天服务于一堆 AI
哦,在所有这些活动之后,AI 堆积得多么快!在南方,"make a mess of something"这句话浮现在脑海中。这意味着将手头的任何东西结合起来做一顿饭。AI 嵌入一切正导致公司出现"一堆东西",但结果并不一定能满足每个人的需求。
PAIGN AI 的联合创始人 Dan Gudema 表示:"在每个 CRM、活动平台或 CMS 中,似乎都有他们自己的生成式 AI,导致使用不同的 LLM。出现的一些问题与便利性有关。另一个问题是数据年龄。AI 模型可以从不同模型的数据开始和结束。有些信息超过 3 年,有些信息来自过去 6 个月。"PAIGN AI 是一个"使用七个 AI 模型为小企业创建博客、图像、社交帖子进行潜在客户开发的工具"。
增加混乱的是,所有嵌入式 AI 可能使用相同的模型——也可能不是。
Verax AI 的 CEO Leo Feinberg 表示:"区分在同一生成式 AI 工具中使用多个模型(例如,在 ChatGPT 中在 GPT4 和 o1 模型之间切换)和使用不同的生成式 AI 工具很重要。"
Feinberg 补充道:"在同一工具中使用不同的语言模型有多个原因,主要原因是每个模型都有其优势和劣势,因此对 ChatGPT 的不同类型的查询可能会根据模型的不同而处理得更好或更差。使用多个生成式 AI 工具(这些工具在幕后通常也由不同的模型驱动)有somewhat不同的原因。"
使用不同生成式 AI 工具的不同原因从用户偏好到项目需求不等。无论如何,在几乎每个家庭、车辆和公司中,都有大量 AI 潜伏和使用。
确实是一堆 AI。那么,接下来会发生什么?
Kore.ai(一个 AI 代理平台和解决方案生产商)的首席布道者 Cobus Greyling 表示:"我们已经看到市场以一个超级模型的视角进行整合,现在我们看到碎片化和特定用途模型的引入。例如,专门针对推理、编码的较小模型,遵循更结构化方法或擅长推理的模型。这就是为什么,模型编排在不久的将来将变得越来越重要。"
好文章,需要你的鼓励
尽管近年来女性在科技行业的地位有所提升,但在争取 IT 领导职位时仍面临诸多障碍。本文探讨了女性在职场晋升过程中遇到的8大主要障碍,包括入职门槛高、刻板印象、孤立感、能力被质疑等,并提出了一些应对策略。文章呼吁业界需要更多关注和支持女性,消除性别偏见,为女性创造公平的发展环境。
随着AI技术的发展,企业和个人用户越来越倾向于使用多个AI模型和工具。这一趋势源于单一AI模型难以满足多样化需求,专业化AI可以在特定领域发挥更好的效果。多模型组合不仅可以提高性能和效率,还能避免对单一供应商的依赖。然而,管理和协调多个AI也带来了新的挑战。
HPE第一财季业绩受到多重因素影响:客户等待采购搭载NVIDIA新一代GPU的服务器,竞争对手激进定价导致服务器利润下滑,库存问题也影响了运营收入。为应对挑战,HPE计划裁员2500人,并采取多项措施提升效率。尽管AI服务器订单强劲,但短期内仍面临收入和利润率压力。HPE预计下半年AI服务器收入将回升,第四财季服务器业务运营利润率有望恢复到10%。
当前,AI模型的推出速度令人眼花缭乱,从谷歌等大型科技公司到OpenAI和Anthropic等初创企业都在不断推出新模型。跟踪最新的AI模型可能会让人感到不知所措。AI模型通常根据行业基准进行宣传,但这些技术指标往往无法真实反映人们和公司如何实际使用它们。为了帮助读者理清思路,TechCrunch汇总了自2024年以来发布的最先进的AI模型概述,包括如何使用它们及其最佳应用场景。我们也会持续更新这个列表,添加最新的发布信息。