我们将如何应对人工智能?这是一个常见问题,但表述却相当模糊。让我们深入探讨这个话题。
在科技行业日益复杂的发展中,人们面临着诸多疑问。关于我们与AI的宏大实验将如何进行,存在着相当大的不确定性。其中一部分涉及这样一个观点:与以往的技术变革不同,AI的一部分发展将超出我们的控制范围。
这回到了我的朋友Jeremy Werthheimer等人提出的观点:我们并非完全在"工程化"大语言模型,而是在"发现"它们及其能力。
换句话说,如何"使用"一个同样能够模仿认知的工具?是你在使用它,还是它在使用你?
还有一个重要问题是人类情感。人们对AI感受如何?这个问题是否过于宽泛?
学生群体的实践
哈佛大学的一项研究显示,用户对AI有多种不同的看法。以年轻学生群体为例,一项调查发现半数学生在使用生成式AI,最常见的用途是搜索和头脑风暴。
这项涵盖1500名青少年的调查显示,一些人用AI作弊,而另一些人则以更积极的方式使用它。
Ryan Nagelhout写道:"在接受调查的青少年中,许多人承认使用AI在作业、家庭作业或考试中作弊。但尽管学术诚信仍然是成年人和青少年共同关心的问题,许多研究参与者强调了他们在生成式AI方面的积极学术体验。AI被称为'现代学习方法',其他受访青少年指出'不是所有孩子都用它在学校作弊'。"
因此,积极看待这项技术与消极看待之间存在巨大差异。
回到调查和模糊性的话题,我最近看到HubSpot的Dharmesh Shah的一次演讲,他向许多人提出了一个问题:"我们将如何与AI竞争?"
正如他指出的,这有两层含义——与AI对抗竞争,以及利用AI竞争。我必须承认,当我看到这个问题时,我想到的是与AI对抗竞争,因为这项技术有时具有令人困惑的力量,能够比我们做得更好。但Shah透露,在他的调查中,66%的受访者从协作角度理解这个问题,而34%的人像我一样理解。
他引用"ChatGPT诞生前2年"这个时间点,讨论如何回答诸如AI如何工作以及我们将走向何方等问题。
引用Geoff Hinton等人物的观点——Hinton在早期神经网络工作后变得不那么乐观——Shah还提出了一些我认为针对内行人的有趣观点,比如他开玩笑说"代币是极客们用来按音节收费的工具"。我觉得这很有趣。
代际差异的故事
Shah演讲中另一个我想重点关注的部分是他谈到自己在印度村庄的成长经历,那里没有电视,甚至没有冰箱。然后他将此与儿子作为有抱负作家的经历进行对比,这个年轻人已经参与了Shah所称的"世界构建"(类似《星球大战》或《指环王》?),这是一种卓越的编程技能,让他能够以赋权的方式探索AI的使用。
我认为这是一个引人深思的方式,说明新一代可能如何与AI共存。
利弊权衡
另一种思考方式是列举对AI最大的担忧,如就业替代、隐私伦理问题,以及人类智力能力的逐渐削弱。这些担忧需要与AI在医学等领域帮助社会以及提高多个行业生产力的潜力相平衡。
让我引用Shah演讲中的几个相关短语。
他提到了"简单交互,复杂行动",这个短语似乎体现了一种平衡——看似微小的过程与有意义步骤之间的对比。他还鼓励人们"保持好奇心",在我看来这是接触技术的正确方式。不要恐惧,也不要盲目接受——要保持好奇心,不要放弃批判性思维能力。
最后,他要求人们"志存高远,小步迭代"——换句话说,要有宏大愿景,但要谨慎引导,循序渐进,而不是盲目前进。因为在某种程度上,我们必须自己充分理解技术,才能以最佳方式进行协作。
与AI互动
要确定我们的方法,首先必须以有计划和深思熟虑的方式与技术互动。这一切都是全新的。也许几年后,我们将开发出建立这种关系的程序——或者也许孩子们会为我们找到答案。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。