2023 年对人工智能来说以一个高潮结束。OpenAI 及其大语言模型 ChatGPT 在新闻编辑室和公司董事会中如野火般蔓延。到 12 月,其公共 API 拥有超过 2 亿名活跃用户。
然而,关于这项技术未来的存在性质疑开始浮现。批评者指出专业应用的局限性,到 2023 年底超过 90% 的企业主动禁用了 OpenAI 的工具。
接着出现了 2023 年的流行词 "幻觉"。确实,ChatGPT 大胆宣称奶牛蛋是蓝色的,这与鸡蛋不同,这削弱了其在企业部署中的潜力。更糟糕的是,由 Microsoft 支持的 OpenAI 独自行动,有可能在技术领域创造一个垄断生态系统。
雪上加霜的是,对风险的普遍担忧导致数百位知名人士联名呼吁暂停 AI 研究。
与此同时,欧洲备受期待的 AI 监管法规本应通过制定明确的使用指南来提供保障,但进展缓慢。
2024 年证明批评者是错的!
在实际应用方面,2024 年扭转了局势。到年底,超过 90% 的企业积极鼓励使用生成式 AI,其中 29% 已经培训了超过四分之一的员工。最好的是?58% 的企业常规用户报告每周至少节省 5 小时 - 而且不是普通的时间,而是最繁琐的工作时间!
对员工来说,这些新获得的时间是一个福音,让他们能够专注于喜欢的任务,加强与同事的社交联系,或者花更多时间陪伴家人。
人们担心的 "幻觉" 危机逐渐消退。为什么?企业利用大模型在交互、分析和综合方面的优势。关键是,用于生成响应的数据是专有的且经过精心策划的。
如今,AI 驱动的解决方案与数百万客户互动,生成 RFP,创建合规文档。
秘诀是什么?在任何大规模部署之前进行严格的测试、校准和实验。
竞争加剧
竞争格局发生了巨大转变。OpenAI(以及美国)不再独占市场。其他美国科技巨头推出了自己的模型:Google 的 Gemini、Meta 的 Llama 和 X 的 Grok。初创公司也引起轰动,如美国的 Anthropic 和法国的 Mistral,后者在成立仅 18 个月后就达到了 60 亿欧元的惊人估值 - 打破记录!
全球南方也不甘落后,有中国的 01.AI、中东的 ALLaM 和印度的 Bharat。如今,商业和开源解决方案都提供了丰富的选择。
监管和研究进展
备受争议的生成式 AI 研究暂停从未实现,监管框架开始成形。2024 年 5 月 21 日,欧洲议会发布了欧盟 AI 法案,旨在平衡保护个人和促进创新的需求。虽然企业对当前文本保持警惕,但他们认识到参与立法进程第二阶段的重要性:特定行业监管。
企业分配多少资源与政策制定者共同创建这些法规,将影响最终结果。
2025:充满潜力
尽管目前只有 24% 的企业报告从 AI 获得显著收益,但它仍然是 74% 企业的三大战略优先事项之一。显然,企业相信 AI!
创新仍在继续,新一代模型能够通过将复杂问题分解为较小的子问题来解决。
此外,技术进步正在促进生成式 AI 与机器人技术的融合。
别忘了 2025 年的流行词:"代理"。这些自主系统将封装生成式 AI 的力量,适应复杂场景。事实上,支撑当今大模型的 Transformer 算法即将被更高效的继任者取代。
没有乌云密布?并非如此。
当然存在挑战:模型成本、网络安全和恶意使用 - 这些是任何新兴技术的常见问题。
但 AI 有其独特的阴影:其贪婪的能源需求。使用量的激增引发了对能源消耗不可持续激增的担忧。
行业正在通过节能芯片、数据中心和精简模型等创新来应对。能源效率与需求增长之间的竞赛已经开始,其解决方案将取决于创新、定价或监管。
好文章,需要你的鼓励
慕尼黑大学联合多所知名院校的研究团队发现,AI深度研究助手虽然能力强大,但存在严重安全漏洞。通过"计划注入"和"意图劫持"两种新攻击方法,这些AI助手可能绕过安全防护,生成比普通AI更详细、更危险的有害内容。研究测试了六款主流AI模型,发现在医学等敏感领域风险尤其突出。团队开发了新的安全评估框架并提出多层防护建议。
谷歌推出升级版图像生成模型Nano Banana Pro,基于最新Gemini 3语言模型构建。新模型支持更高分辨率(2K/4K)、准确文本渲染、网络搜索功能,并提供专业级图像控制能力,包括摄像角度、场景光照、景深等。虽然质量更高但成本也相应增加,1080p图像费用为0.139美元。模型已集成到Gemini应用、NotebookLM等多个谷歌AI工具中,并通过API向开发者开放。
牛津大学研究团队发现了针对AI推理安全系统的四种"黑科技"攻击方法,能以超过90%的成功率让最先进的安全防护失效。这些方法利用AI对话模板的结构性缺陷,从简单的符号插入到复杂的推理劫持,门槛极低但威力巨大。研究揭示了当前AI安全架构的根本性问题,特别是在开源AI时代,这些漏洞的影响范围前所未有。