总部位于马萨诸塞州剑桥市的Solo.io在6月25日于旧金山举办的VB Transform创新展示会上荣获"最具成功潜力"奖。
这家成立于2017年的云原生应用网络公司在2021年C轮融资中筹集了1.35亿美元,估值达10亿美元。该公司为现代应用程序提供连接、安全和观察工具,特别是那些基于Kubernetes和微服务构建的应用程序。
推出Kagent Studio
该公司的Kagent平台是首个云原生框架,帮助DevOps和平台工程师在Kubernetes中构建和运行AI智能体。在今年VB Transform创新展示会期间,公司宣布推出Kagent Studio,这是一个允许企业在Kubernetes中构建、保护、运行和管理AI智能体的框架。
公司首席产品官Keith Babo在VB Transform主舞台上展示了这一新产品。他表示,该框架旨在通过提供以下功能来解决平台工程挑战:
- 原生VSCode扩展集成 - 实时事件响应能力 - Slack和Teams等工作场所通信平台与集成开发环境(IDE)之间的双向通信 - 自动根因分析生成 - 实时基础设施监控和诊断
"这是首个针对在Kubernetes上构建和运行智能体的目标受众的框架,"Babo在接受VentureBeat采访时说。"我们希望确保能够将其直接集成到平台工程师日常使用的工具中。"
帮助平台工程师共享上下文
Babo表示,该框架作为VS Code的原生扩展运行,在许多核心平台工程工作流程(包括事件响应)方面都表现出色。
"比如你可能会在IDE中收到PagerDuty警报。你可以确认它,然后在IDE内本地运行的智能体会立即捕获该事件并开始诊断。所有这些都在工程师面前实时进行。你可以看到实际的图表、日志以及运行的核心Pod或基础设施的状态,所有这些都是实时的,人工始终参与其中,"他解释道。
然后工程师指导系统继续进行(或不进行),允许智能体和人类共存并合作有效解决问题,Babo补充说。
他表示,该框架将允许从通信平台向IDE实时注入上下文,分析结果会回传到通信平台,为处理问题的人员提供双向通信。
平台工程师的Salesforce
公司创始人兼CEO Idit Levine在接受VentureBeat采访时表示,她将Kagent Studio视为"必备工程工具",类似于对企业销售团队至关重要的Salesforce CRM。她说Kagent Studio连接了平台和平台工程子团队之间的上下文和通信。
Levine表示,赢得"最具成功潜力"奖对他们来说是"很好的验证",表明企业对其产品的兴趣。
根据Babo和Levine的说法,Kagent Studio已经获得了显著关注。它拥有1000多名贡献者、1100多个GitHub星标,用户已经在生产环境中运行它。目前处于封闭预览阶段,用户可以申请访问权限。更多信息可在Discord服务器上找到。
每位入围者都向行业决策者观众进行了展示,并在展示会上接受了风险投资评委小组的反馈。评委包括Salesforce Ventures的负责人Emily Zhao、Menlo Ventures的合伙人Matt Kraning,以及Amex Ventures的投资总监Rebecca Li。
其他获奖者还包括CTGT和Catio。入围者包括Kumo、Superduper.io、Sutro和Qdrant。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。