IBM为其Db2数据库新增了对Google Vertex AI和Intel Gaudi的支持,以强化基于AI的数据库管理能力。
随着Db2 Genius Hub的更新(该平台于今年早些时候推出),IBM如今承诺推出一套能够在特定约束范围内代表数据库管理员(DBA)自主执行操作的自动化数据库管理系统。
此次更新将Db2数据与Google Cloud的全托管AI平台Vertex AI进行集成,帮助用户构建、部署和扩展机器学习模型。IBM还集成了AI加速器Intel Gaudi,承诺在大规模AI部署中提供更优的性价比。
上述两项更新在现有支持Amazon Bedrock和IBM watsonx.ai的基础上进一步扩展,同时新增对Microsoft Azure AI Foundry的支持,IBM正持续向更高度自主的数据库运维模式迈进。
Db2诞生于20世纪80年代,如今已成为大型关键业务应用的首选数据库。其用户中约有43%来自银行业,包括美国运通、美国银行、花旗银行和德意志银行等知名机构。
这类数据库管理员通常不会轻易在系统上冒险,但IBM表示,部分常规任务完全可以交由AI处理。
Db2 Genius Hub于今年3月发布,IBM称其可将管理成本降低25%、人工干预减少30%、故障解决时间缩短35%。当然,对于厂商的声明,仍需保持审慎态度。
最新版本允许AI在明确边界内自主管理任务,同时确保人工判断"始终处于核心位置"。
IBM软件数据库业务总监Miran Badzak在一篇博客中表示:"在此次版本中,Db2 Genius Hub中的AI智能体可在用户审批的前提下提出并执行数据库操作。这意味着团队可以更直接地从诊断阶段过渡到行动阶段,同时不失去对生产环境的掌控。"
行业分析师Sanjeev Mohan在与IBM的交流中表示,生成式AI编程领域的进展表明,自动化进入DBA工作流程只是时间早晚的问题。
"这是第一步——系统正在主动进行监控和根因分析,很快将进入给出建议并自主执行任务的阶段,"这位前Gartner分析师表示。
"我们希望DBA能够提升技能,走进业务决策层。当决策者说'我需要发起一场大规模营销活动,可能会让数据库崩溃'时,DBA可以专注于业务成功,因为Genius Hub能够处理所有复杂、繁琐的数据库底层工作。我们可以让DBA真正进入那个决策会议室,"Mohan说道。
在经历超过40年的发展历程后,Db2在过去五年中取得了长足进步。早在2021年底,IBM容器化部署方案Db2u还仅能通过Red Hat OpenShift上的容器使用。
其他近期动态还包括:IBM与类PostgreSQL分布式数据库提供商CockroachDB达成合作,旨在帮助依赖大型机硬件的关键业务应用实现现代化升级。
Q&A
Q1:Db2 Genius Hub能为数据库管理员带来哪些具体好处?
A:根据IBM的数据,Db2 Genius Hub可将数据库管理成本降低25%、减少30%的人工干预,并将故障解决时间缩短35%。它允许AI智能体在用户审批前提下提出并执行数据库操作,让DBA团队能够更快从诊断过渡到行动,同时保留对生产环境的控制权。
Q2:Db2 Genius Hub目前支持哪些AI平台?
A:目前Db2 Genius Hub已支持多个主流AI平台,包括Amazon Bedrock、IBM watsonx.ai、Google Cloud Vertex AI以及Microsoft Azure AI Foundry,同时还集成了Intel Gaudi AI加速器,以提升大规模AI部署的性价比。
Q3:IBM Db2主要被哪些行业使用?
A:Db2在银行业有广泛应用,银行客户约占其用户总数的43%,包括美国运通、美国银行、花旗银行和德意志银行等大型金融机构。这类机构对数据库稳定性要求极高,因此Db2长期以来是大规模关键业务应用的首选数据库。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。