“大模型的应用从‘上新品’逐渐进入‘强应用’阶段,更好的通用人工智能仍在路上。”10 月 29 日,蚂蚁数科CTO王维在香港金融科技周2024 分享时指出。
两年前,大语言模型(LLM)的出现,引发了全球科技从业者的普遍关注和行业热潮。ChatGPT 月活用户数以史上最快速度达到 1 亿,AI 行业迎来“ChatGPT时刻”。经过一段时间的狂奔,LLM性能阶段性趋于饱和,大模型底层推动力逐渐收敛到少数拥有核心数据及算力资源的公司,行业注意力也更多转到了以Agent为代表的行业应用侧。
如何解放 LLM 应用的局限性。王维强调,高质量的行业数据和专业工具是 AI 继续发展的关键壁垒和门槛,行业应用需要系统性地解决专业严谨和安全可信等问题。蚂蚁数科“蚁天鉴”产品,集大模型安全测评与防御为一体,让大模型在生产和使用过程中更安全、可控、可靠。
他认为,高质量数据可以更好地模拟客观世界,提升模型的准确性和稳定性。过去十年,伴随着AI发展的范式转移,对数据的要求也在持续改变。机器学习从“以模型为中心”转向“以数据为中心”。在当下的 LLM时代,行业应用要做到安全可信,其核心是如何结合专业人工+AI算法的高效标注,产生高质量的标注数据。
而面向未来的AGI时代,随着互联网公开数据逐步耗尽,以及GPT-o1带来的强化学习训练新范式,都预示着数据合成的重要性进一步提升。王维指出,如何通过仿真引擎、自博弈(self-play)强化学习的方式,合成出更多互联网所不覆盖的高质量、高价值领域数据,将是到达AGI时代的关键。
他也提醒道,AI 是把双刃剑,AIGC滥用所带来的风险需要系统性应对。不久前,“AI 教父” 杰弗里·辛顿(Geoffrey E. Hinton)在采访中再次强调了其对AI安全问题的强烈担忧。他与另外两位图灵奖得主约书亚·本吉奥(Yoshua Bengio)、姚期智及来自世界各地的几十位科学家共同签署了一封公开信——“AI 安全国际对话威尼斯共识”,呼吁为推动人工智能的发展制定更好的保障措施。
他们在公开信中警告道,“随着人工智能的快速发展,这些‘灾难性的结果’随时可能发生。”究其问题根源,在于 AIGC 的滥用不仅会产生虚假信息和网络钓鱼攻击,还可能引发全球性的诈骗活动。其中,值得关注的一大风险来源便是Deepfake, 即基于深度学习算法,从大量的视频和图像数据中学习,伪造出逼真的面部动画和语音。
王维介绍,蚂蚁数科旗下身份安全品牌 ZOLOZ 为此专门研发了综合防控产品 ZOLOZ Deeper,以应对在开户、登录、支付等各种场景的深度伪造风险。在服务印尼某头部银行后,产品上线一个月时间内实现了 Deepfake 风险“0 漏过”。
好文章,需要你的鼓励
机器人和自动化工具已成为云环境中最大的安全威胁,网络犯罪分子率先应用自动化决策来窃取凭证和执行恶意活动。自动化攻击显著缩短了攻击者驻留时间,从传统的数天减少到5分钟内即可完成数据泄露。随着大语言模型的发展,"黑客机器人"将变得更加先进。企业面临AI快速采用压力,但多数组织错误地关注模型本身而非基础设施安全。解决方案是将AI工作负载视为普通云工作负载,应用运行时安全最佳实践。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
面对心理健康专业人士短缺问题,谷歌、麦肯锡和加拿大重大挑战组织联合发布《心理健康与AI现场指南》,提出利用AI辅助任务分担模式。该指南构建了包含项目适应、人员选择、培训、分配、干预和完成六个阶段的任务分担模型,AI可在候选人筛选、培训定制、客户匹配、预约调度和治疗建议等环节发挥作用。该方法通过将部分治疗任务分配给经过培训的非专业人员,并运用AI进行管理支持,有望缓解治疗服务供需失衡问题。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。