面向小型开发团队的云基础设施提供商 DigitalOcean Holdings Inc. 最近加入了代理型 AI 的潮流,推出了全新的 GenAI 平台,让团队能在几分钟内构建和部署 AI 代理。
AI 代理是当今人工智能行业最热门的趋势之一,它指的是能够代表人类用户自主执行操作,并在最小监督下进行复杂决策或分析的生成式 AI 模型。AI 代理能够随时间学习新知识,使其表现随着经验的积累而不断提升。
代理型 AI 的潜力巨大,尽管可能需要多年时间才能充分认识到它的全部能力,但 DigitalOcean 已将其视为云基础设施提供商的关键竞争领域。
该公司是 Amazon Web Services Inc. 和 Microsoft Corp. 等公共云巨头的竞争对手,提供竞争性的云基础设施即服务平台。但它并未直接与这些巨头竞争,而是通过其面向个人开发者的"开发者云",为小型企业开辟了独特的市场定位。
它以简化的界面和具有竞争力的价格脱颖而出,推崇以部署速度为重点的用户友好体验。其无服务器基础设施使应用程序只需几次简单点击就能部署到生产环境,符合其保持云计算简单性的目标。
DigitalOcean 认为构建 AI 代理也应该简单,其新的 GenAI 平台可以帮助开发者在无需 AI 或机器学习专业技能的情况下快速部署。
DigitalOcean 的产品和技术总监 Bratin Saha 在公司年度客户会议 Deploy 上发布了 GenAI 平台,他解释说这一切都是为了让小型公司也能使用 AI 代理。"生成式 AI 是一个具有挑战性的概念,但我们的团队不懈努力,创建了一个易用的平台,可以无缝集成到客户现有的基础设施中,并且对任何经验水平的开发者都具有较低的入门门槛。"
为了简化流程,该平台提供了创建 AI 代理的蓝图,用户只需从专门用于文档分析、图像生成和语义搜索等任务的基础模型库中进行选择。然后将其连接到专有或公共数据集,实际上就可以开始使用了。所有这些都可以通过 AI 聊天机器人界面完成,用户只需描述他们想要构建的内容即可。
该公司解释说,它使用"函数调用"将 AI 代理连接到用户的数据库或应用程序编程接口,确保它们能够访问最准确和最新的数据。它还提供了安全和可靠性保障,最大限度地降低不准确、不可靠或不当响应的风险。同时也提供私有端点支持。
此外,DigitalOcean 强调了其 GenAI 平台的"框架无关性",支持从 AI 代理创建到部署的无缝过渡。客户还可以利用公司广受欢迎的"GPU Droplets",这是由 Nvidia Corp. 流行的 H100 图形处理单元驱动的虚拟机。这些于去年推出的服务提供灵活的单节点和多节点配置,专门用于支持 AI 工作负载。
Constellation Research Inc. 的副总裁兼首席分析师 Andy Thurai 表示,在当前每个云基础设施公司都在争相支持 AI 代理开发的时候,DigitalOcean 提供的无代码功能可以使 GenAI 平台成为开发者的有力选择。
"它承诺能帮助开发者像其他平台一样快速地构建和部署他们的 AI 代理,甚至更快,"他说。
分析师表示,DigitalOcean 的主要优势似乎在于能够访问特定上下文、语言和客户特定数据的定制 AI 代理,尽管它们可能仅限于相对简单的工作流程。
"构建复杂的工作流程会更困难,但该平台对于 AI 和机器学习知识有限的开发者来说很有用,"Thurai 补充道。"他们还可以利用 GPU Droplets,根据任务使用情况调整 GPU 基础设施的规模,并支持使用更优化的大语言模型。"
工业自动化公司 Autonoma Inc. 有幸提前接触到 DigitalOcean 的 GenAI 平台,用它构建和部署了一个能够为每个客户创建和管理大量文档的 AI 代理。
"我们能够快速创建理解每个客户特定上下文和语言的智能 AI 代理,"Autonoma 总经理 Florian Bauernfeind 解释说。"它让我们更容易阅读大量文档并搜索各种内容。"
该公司表示,其 GenAI 平台自去年以来一直处于测试阶段,现在向所有客户全面开放。但尽管现已可用,它还远未完成。
DigitalOcean 表示计划逐步增强平台的功能,其产品路线图包括支持 URL 作为数据源、代理评估、持续集成和部署管道、知识库自动索引以及模型微调等功能。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。