由Madrona举办的年度人工智能峰会IA 2024上,微软人工智能首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)与Madrona的董事总经理索玛·索玛塞格(Soma Somaseger)进行了一场炉边谈话,分享了人工智能助手将如何很快改变我们的生活和工作。他将人工智能重新定义为一种深度的个人关系,一种以我们尚未想象到的方式适应、学习甚至预测我们需求的关系。
Madrona全称为Madrona Venture Group,一家成立于1995年的风险投资公司,专注于为早期到后期的创新型科技公司提供种子阶段、A轮及B轮的风险投资。索玛·索玛塞格(Soma Somaseger)2015年11月加入Madrona,此前在微软公司工作了超过25年,负责领导微软的开发者部门。
苏莱曼认为,我们正处于一个转折点,AI的发展速度和影响力正在超越我们的预期。他强调,AI不再是简单的工具或应用程序,而是正在转变为一种深刻的个人关系。这种关系是动态的,AI将成为一种无处不在的、可信赖的伴侣,具备记忆和情感智能,能够通过语音、文本和视觉无缝地与人类互动。
苏莱曼指出,AI的智力(IQ)、情感智能(EQ)和行动能力(AQ)的演进将推动更直观、自然的AI与人类之间的互动。他预见,未来的AI将具有非常好的记忆力,能够跨任意文档检索信息,届时AI能够更好地理解和响应人类的需求。这种记忆力的提升,加上AI的IQ、EQ和AQ,将形成一个强大的系统,能够以前所未有的方式服务于人类。
他进一步阐述了AI如何改变我们与技术的互动方式。在过去,是人类给计算机编程,告诉它们如何执行特定的任务。但随着AI技术的发展,尤其是大语言模型的出现,这种关系正在发生根本性的变化。现在,AI正在学习适应我们的需求,以一种更加个性化和互动的方式“编程”我们的数字世界。
苏莱曼还谈到了AI的递归自我完善(recursive self-improvement)的概念,这一概念是指AI系统能够改进自己的算法和架构,从而提高自己的智能水平。他认为,尽管目前我们还没有看到AI系统能够自我完善到导致智能爆炸(intelligence explosion)的程度,但在未来5到10年的时间里,这种情况将会改变。他强调,随着AI系统变得更加复杂和强大,我们需要更加谨慎地考虑我们赋予这些系统的激励机制。特别是,我们需要定义和限制那些高风险的能力,比如自主性(autonomy),以确保我们能够从监管的角度进行有意义的干预。
苏莱曼还强调了一个重要观点,即随着计算资源的增加,AI模型变得更容易控制、转向和对齐。这一观点与一些人对大型模型可能变得更加复杂和难以管理的担忧形成鲜明对比。他指出,随着模型规模的扩大,它们在多个方面表现得更为出色。
首先,AI模型在指令遵循方面的能力显著提升,使得它们能够更准确地理解并执行用户的命令。此外,随着计算能力的增强,模型在减少“幻觉”方面也取得了显著进展,它们生成的信息将更加贴近事实,错误信息的发生率将显著降低。
更重要的是,随着模型的规模增大,它们与产品设计、行为政策和业务政策的对齐性也得到了增强。AI模型不仅能够更好地优化为特定目标服务,还能够在复杂的环境中保持一致性。苏莱曼强调,这些改进是一个重要的成就。这一趋势为AI的未来发展带来了积极的信号,预示着我们可以期待更加强大且可靠的AI系统。
好文章,需要你的鼓励
CIO们正面临众多复杂挑战,其多样性值得关注。除了企业安全和成本控制等传统问题,人工智能快速发展和地缘政治环境正在颠覆常规业务模式。主要挑战包括:AI技术快速演进、IT部门AI应用、AI网络攻击威胁、AIOps智能运维、快速实现价值、地缘政治影响、成本控制、人才短缺、安全风险管理以及未来准备等十个方面。
北航团队发布AnimaX技术,能够根据文字描述让静态3D模型自动生成动画。该系统支持人形角色、动物、家具等各类模型,仅需6分钟即可完成高质量动画生成,效率远超传统方法。通过多视角视频-姿态联合扩散模型,AnimaX有效结合了视频AI的运动理解能力与骨骼动画的精确控制,在16万动画序列数据集上训练后展现出卓越性能。
过去两年间,许多组织启动了大量AI概念验证项目,但失败率高且投资回报率令人失望。如今出现新趋势,组织开始重新评估AI实验的撒网策略。IT观察者发现,许多组织正在减少AI概念验证项目数量,IT领导转向商业AI工具,专注于有限的战略性目标用例。专家表示,组织正从大规模实验转向更专注、结果导向的AI部署,优先考虑能深度融入运营工作流程并产生可衡量结果的少数用例。
这项研究解决了AI图片描述中的两大难题:描述不平衡和内容虚构。通过创新的"侦探式追问"方法,让AI能生成更详细准确的图片描述,显著提升了多个AI系统的性能表现,为无障碍技术、教育、电商等领域带来实用价值。