人工智能和新技术正在改变工作环境,我们的工作方式和创造力也在被重塑。宾夕法尼亚大学沃顿商学院的教授Ethan Mollick与《大西洋》杂志撰稿人罗斯-安德森(Ross Andersen)进行了一场对话,探讨了人工智能和未来的工作。

Mollick首先提到了AI的“扩展法则”(scaling law),这是目前AI领域的一个重要非正式规则。根据这一法则,AI模型的规模与其智能成正比。随着模型规模的增长,其处理信息的能力、训练成本以及电力消耗都会增加,从而使得模型变得更加智能。例如,彭博社投入了大量资金训练了一个专门处理金融数据的?BloombergGPT模型,但后来发现,尽管GPT-4模型未经专门训练,却能更好地完成金融预测任务,仅仅因为它是一个更大的模型。
Mollick解释了AI的“幻觉”问题,即AI生成的看似合理但实际上并不存在的内容。他分享了自己的经历,他使用了AI系统来审阅自己的一篇论文,并要求AI为这篇论文生成摘要和一些引用。AI系统完成了任务,并提供了一些引用和评论。然而,当他回头去查看自己写的论文,试图找到这段话的出处时,却发现这段话并不存在于他的论文中。经过进一步的检查,他意识到这段话完全是AI生成的,是一个“幻觉”。
这个例子揭示了AI的一个关键特性:它们不是通过查找数据库或引用真实信息来生成内容,而是通过学习人类语言的模式来预测和生成下一个最有可能的词。因此,尽管AI生成的内容通常看起来是合理的,但这并不意味着它一定是真实的。

AI不仅仅是一个简单的时间节省工具,实际上可以提高工作的整体产出。波士顿咨询集团(BCG)组织的一项研究显示,AI可以显著提高工作效率和工作质量。在这项研究中,咨询公司的员工在没有任何培训的情况下,使用GPT-4处理业务任务,他们的工作质量提高了40%,速度提高了26%,完成的工作量增加了13%。
Ethan Mollick在讨论中指出,AI工具在提高工作效率和质量方面具有显著优势,但许多员工在使用这些工具时却不愿意公开。这种不愿意公开使用AI的现象背后隐藏着多种担忧。
首先,员工担心如果他们公开使用AI完成工作,公司可能会认为他们的职位可以被自动化取代,从而增加了他们被裁员的风险。此外,员工可能担心如果工作成果部分或全部由AI完成,他们可能不会得到应有的认可和赞誉。
另外,一些员工可能担心,随着AI在工作场所的普及,他们的技能会变得过时,从而减少了他们在职场上的竞争力。因此,他们可能会避免使用AI,以维持对传统工作技能的依赖。AI的引入还可能会改变现有的工作流程和职责分配,员工可能担心这种改变会打乱他们熟悉的工作节奏,增加工作压力。
为了解决这些担忧,公司需要建立明确的政策和指导方针,鼓励员工透明地使用AI,并明确AI辅助工作的价值。同时,公司应该提供培训和支持,帮助员工适应新的工作方式,并确保他们理解AI如何增强而不是取代他们的工作。

在对年轻人的建议中,Mollick强调了专注于自己擅长和热爱的事物的重要性。他认为,无论技术如何进步,对于自己擅长和热爱的事物的热情和技能始终具有价值。AI和自动化可能会改变工作的性质,但不会减少对优秀技能的需求。专注于自己的强项和兴趣可以帮助年轻人更好地适应未来的劳动市场,因为随着AI和其他技术的发展,工作角色和职责可能会发生变化,但拥有核心技能和适应性将有助于年轻人在变化的环境中找到自己的立足点。
追求自己的激情,发展自己的才能,并准备好与AI合作,而不是被其取代,以确保自己在未来的劳动市场中保持竞争力和价值。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。