Meta Connect 2024大会前夕,专注于探讨塑造未来创新技术的节目“Huge If True”采访了Meta首席执行官马克-扎克伯格(Mark Zuckerberg)。扎克伯格和他的团队正在想象数十亿人未来生活可能的样子,并在为之努力着。在这次对话中,扎克伯格描绘了他正在努力构建的未来。
扎克伯格认为,增强现实眼镜将成为继手机之后的又一重大计算平台。从大型机到桌面电脑,再到如今无处不在的智能手机。这一趋势正朝着更普及、更自然、更社交的方向发展,而AR眼镜正是这一趋势的自然延伸。
AR眼镜提供了一种与数字内容互动的新方式,这种方式比通过手机屏幕更为自然和直观。用户可以通过眼镜看到现实世界,同时与全息图像进行交互,这将彻底改变我们与技术的互动模式。
通过AR和AI技术,即使人们身处远方,也能以全新的方式进行互动和沟通,仿佛彼此近在咫尺,从而增强社交体验。他认为,随着AI技术的进步,我们正迈向一个新时代,在这个时代中,智能系统能够深入理解用户需求并提供定制化的服务。
例如,AI实时翻译技术,可以帮助人们跨越语言障碍,实现更广泛的交流。这种技术不仅促进了国际合作,也使获取全球内容变得更加容易。在教育和编程领域,他预见AI将能够根据每个学习者的学习速度和风格提供个性化的教育体验,同时辅助编程,帮助开发者解决复杂问题,提高工作效率。
随着AI技术的普及,扎克伯格预见将会出现一系列个性化的AI产品,从没有显示屏的智能眼镜到全息AR眼镜,再到全面混合现实头显,满足不同用户的需求。扎克伯格强调,AI技术将变得足够普及和可访问,使得每个人都能根据自己的需求定制和使用AI。无论是在日常任务中获得帮助,还是在专业领域实现创新,AI都将成为人们生活中不可或缺的一部分。
扎克伯格还强调了开源人工智能的重要性。开源意味着全球的开发者社区都能访问和贡献自己的力量,这样的开放性促进了广泛的参与和协作。开源提高了AI系统的透明度,任何人都可以查看和理解系统的工作原理。开源还有助于更快地发现并解决潜在的安全漏洞,提高系统的安全性。
关于目前的AI架构是否会继续扩展其能力,还是会达到一个上限的问题,扎克伯格解释说,目前的AI架构,尤其是基于Transformer的模型,已经显示出了强大的扩展性,这些模型随着训练数据的增加和计算资源的扩展而变得更加强大和有效。
到目前为止,这些AI模型并没有显示出能力增长的停滞迹象,随着模型在更多的GPU上进行训练,它们的性能和能力似乎在持续提升。对于未来AI的发展,扎克伯格提到,正在考虑大规模投资于基础设施,以便能够支持更大、更复杂的AI模型。
如果AI架构能够持续扩展,那么我们可能会看到一系列新的、令人兴奋的产品和应用。如果存在上限,那么技术社区需要寻找新的方法来进一步提高AI的性能。扎克伯格认为即使达到某种上限,创新也将继续。技术人员将会探索新的AI架构或算法,以实现进一步的性能提升。
扎克伯格在采访中展现了对未来技术发展的热情和乐观,同时也意识到伴随这些变革而来的挑战和责任。他强调了开放源代码的重要性,并对AI的未来发展持谨慎乐观的态度。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。