2023 年对人工智能来说以一个高潮结束。OpenAI 及其大语言模型 ChatGPT 在新闻编辑室和公司董事会中如野火般蔓延。到 12 月,其公共 API 拥有超过 2 亿名活跃用户。
然而,关于这项技术未来的存在性质疑开始浮现。批评者指出专业应用的局限性,到 2023 年底超过 90% 的企业主动禁用了 OpenAI 的工具。
接着出现了 2023 年的流行词 "幻觉"。确实,ChatGPT 大胆宣称奶牛蛋是蓝色的,这与鸡蛋不同,这削弱了其在企业部署中的潜力。更糟糕的是,由 Microsoft 支持的 OpenAI 独自行动,有可能在技术领域创造一个垄断生态系统。
雪上加霜的是,对风险的普遍担忧导致数百位知名人士联名呼吁暂停 AI 研究。
与此同时,欧洲备受期待的 AI 监管法规本应通过制定明确的使用指南来提供保障,但进展缓慢。
2024 年证明批评者是错的!
在实际应用方面,2024 年扭转了局势。到年底,超过 90% 的企业积极鼓励使用生成式 AI,其中 29% 已经培训了超过四分之一的员工。最好的是?58% 的企业常规用户报告每周至少节省 5 小时 - 而且不是普通的时间,而是最繁琐的工作时间!
对员工来说,这些新获得的时间是一个福音,让他们能够专注于喜欢的任务,加强与同事的社交联系,或者花更多时间陪伴家人。
人们担心的 "幻觉" 危机逐渐消退。为什么?企业利用大模型在交互、分析和综合方面的优势。关键是,用于生成响应的数据是专有的且经过精心策划的。
如今,AI 驱动的解决方案与数百万客户互动,生成 RFP,创建合规文档。
秘诀是什么?在任何大规模部署之前进行严格的测试、校准和实验。
竞争加剧
竞争格局发生了巨大转变。OpenAI(以及美国)不再独占市场。其他美国科技巨头推出了自己的模型:Google 的 Gemini、Meta 的 Llama 和 X 的 Grok。初创公司也引起轰动,如美国的 Anthropic 和法国的 Mistral,后者在成立仅 18 个月后就达到了 60 亿欧元的惊人估值 - 打破记录!
全球南方也不甘落后,有中国的 01.AI、中东的 ALLaM 和印度的 Bharat。如今,商业和开源解决方案都提供了丰富的选择。
监管和研究进展
备受争议的生成式 AI 研究暂停从未实现,监管框架开始成形。2024 年 5 月 21 日,欧洲议会发布了欧盟 AI 法案,旨在平衡保护个人和促进创新的需求。虽然企业对当前文本保持警惕,但他们认识到参与立法进程第二阶段的重要性:特定行业监管。
企业分配多少资源与政策制定者共同创建这些法规,将影响最终结果。
2025:充满潜力
尽管目前只有 24% 的企业报告从 AI 获得显著收益,但它仍然是 74% 企业的三大战略优先事项之一。显然,企业相信 AI!
创新仍在继续,新一代模型能够通过将复杂问题分解为较小的子问题来解决。
此外,技术进步正在促进生成式 AI 与机器人技术的融合。
别忘了 2025 年的流行词:"代理"。这些自主系统将封装生成式 AI 的力量,适应复杂场景。事实上,支撑当今大模型的 Transformer 算法即将被更高效的继任者取代。
没有乌云密布?并非如此。
当然存在挑战:模型成本、网络安全和恶意使用 - 这些是任何新兴技术的常见问题。
但 AI 有其独特的阴影:其贪婪的能源需求。使用量的激增引发了对能源消耗不可持续激增的担忧。
行业正在通过节能芯片、数据中心和精简模型等创新来应对。能源效率与需求增长之间的竞赛已经开始,其解决方案将取决于创新、定价或监管。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。