准备好在未来几个月和几年内看到更多来自"AI原生"软件公司的解决方案。这一趋势意味着新的界面、不同的成本考虑以及构建和使用应用程序的新方式。正如十年前云原生供应商通过软件即服务(SaaS)和平台即服务(PaaS)产品大量涌入市场一样,我们可能会看到大量新的基于AI的应用程序。
这是咨询公司德勤的一项新研究得出的结论。这并不意味着SaaS供应商会很快消失。目前,前10大SaaS提供商占据了软件市场一半以上的市值。整体市场在2024年至2025年间增长了11%,从3.6万亿美元增长到4万亿美元。
但市场动态正在迅速变化。SaaS和传统软件公司已经面临用结果驱动定价取代按许可证定价的压力。
研究报告的作者预测:"随着AI原生挑战者开始在各个业务流程中蚕食市场领导者,并创造出以前软件未涉及的新市场细分,竞争将会加剧。"
"此外,新入局者正在快速增长,并以更精简的运营模式扰乱市场。"
这种转变对开发人员、工程师、设计师和产品经理产生了有趣的影响,他们需要重新组织或转变自己的运营和技能集。
那么,哪些服务领域正在发生变化?该研究指出了几个领域,包括以下方面:
这种新环境对中小型企业(SMB)特别有利。德勤软件和平台负责人Ayo Odusote告诉ZDNET:"AI优先软件让中小企业能够像大企业一样运营,以一小部分成本提供先进功能。"
"随着来自AI原生公司的竞争加剧,包括中小企业在内的买方将拥有更多选择,因此拥有更多话语权,这可能导致成本降低。此外,低代码和无代码平台意味着您不一定需要昂贵的技术人才来创建软件。"
尽管如此,Odusote警告说,较小的企业"需要仔细管理前期投资,特别是在数据准备、集成和治理方面"。"长期节约和生产力提升是真实的,但成本优势来自于有纪律的部署和可衡量的业务成果,而不仅仅是实验。"
新一类AI原生供应商的崛起也意味着选择丰富——有许多新选择。Odusote说:"因为这个领域有更多竞争和更多选择,这也可能使中小企业更难决定软件供应商。他们是选择成熟的供应商,还是寻找能够以更低成本提供更多创新但需要承担风险的新供应商?"
现有企业和AI原生挑战者之间的竞争正在加剧,"其中许多专注于高度专业化的用例,"他表示。"这种动态正在创造更多选择,特别是对于那些可能更喜欢模块化、针对性解决方案而非大型单一平台的中小企业。"
Odusote说,我们正在看到"跨行业AI驱动软件层"的形成。"较小的初创公司正在利用细分工作流程和垂直特定的AI应用程序,这可能会产生一个更加多样化和富有创新性的市场。对中小企业来说,这可以转化为更量身定制的解决方案和更具竞争力的定价。"
他继续说,采用AI解决方案还需要员工队伍的发展。"向AI优先的转变既关乎员工队伍发展,也关乎技术。成功扩展AI的组织正在重新设计角色,并在整个企业中建立AI素养。"
所需的关键技能领域包括数据管理、供应商评估、工作流程重新设计以及业务和技术团队之间的跨职能协作。
Q&A
Q1:AI原生软件与传统SaaS软件有什么区别?
A:AI原生软件采用AI优先的设计理念,从底层架构开始就集成了人工智能能力,而传统SaaS软件是在现有架构基础上添加AI功能。AI原生软件通常采用结果驱动定价模式,而非按许可证定价。
Q2:中小企业如何从AI原生软件中获益?
A:AI原生软件让中小企业能够以一小部分成本获得企业级先进功能,通过低代码和无代码平台降低技术门槛。同时,市场竞争加剧为中小企业提供了更多选择和议价权,可能导致成本进一步降低。
Q3:企业采用AI解决方案需要具备哪些技能?
A:关键技能领域包括数据管理、供应商评估、工作流程重新设计,以及业务和技术团队之间的跨职能协作。企业还需要在整个组织中建立AI素养,重新设计相关岗位职责。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。