近期的达沃斯论坛,是AI人物云集的高端局。
DeepMind创始人兼首席执行官Demis Hassabis(德米斯·哈萨比斯),在达沃斯论坛期间,分享了多个重磅消息:
第一,在药物研发方面。哈萨比斯预测,在2025年底就会有首个AI辅助设计的药物进入临床试验。
2021年,谷歌旗下的DeepMind分拆成立了Isomorphic Labs,专注于将人工智能和计算方法应用于药物研发,而哈萨比斯同时担任这两家谷歌分公司的CEO。
2024年,两家公司联合发布了生物学预测模型AlphaFold 3,可以准确预测蛋白质与其他分子的相互作用,并且已经将该模型用于科研,与制药公司合作,为新药研发开辟了新途径。
第二,关于AGI。哈萨比斯也给出了相对明确的预测:在5-10年内可能实现具备人类所有认知能力的AGI,但可能还需要一两个关键突破。
他强调,这个预测,是基于DeepMind多年前对AGI的一贯定义——能展现人类所有认知能力,包括创造力。
之所以认为必须要实现AGI,是因为他从小对物理学感兴趣,而如果我们真想洞悉物理学的本质,以及意识、梦境和时间等问题,全面理解现实世界的本质,可能需要依靠AGI级别的技术。
第三,关于AI大模型。哈萨比斯介绍了谷歌最新发布的Gemini 2.0系列模型,其中的视频生成模型Veo 2,能够准确模拟物理世界的细节,比如切番茄这样的复杂动作。这被认为是迈向“世界模型”的重要一步,为未来开发通用AI助手奠定基础。
第四,关于AI工具,哈萨比斯透露,自己最常用的一个工具就是NotebookLM——“对我来说,这是一种全新的信息获取方式,我几乎每天都用它,来概括新的研究领域,帮助我快速入门,掌握核心要点,从而决定是否深入研究。”
NotebookLM是谷歌的笔记应用,它的音频概览功能最初推出时,便允许用户上传文档(如课程材料或法律摘要),然后由AI虚拟主持人生成播客概览。
最近,它新增了一项互动模式,让用户能够与AI播客主持人直接交流,允许用户在与AI互动时提问、深入讨论、并获得个性化的答复。哈萨比斯继续安利说道:“它新增的这项功能,如果你想把话题引向其他角度,你甚至可以打断播客,向主持人提问,强烈推荐大家都试试看。”
第五,关于AI的未来。哈萨比斯也表达了对AI发展的担忧,他认为目前面临两大主要风险:一是恶意行为者滥用通用AI系统,二是AGI本身可能带来的风险。他呼吁建立类似CERN的国际AI研究机构,通过国际合作来确保AI朝着安全、可控的方向发展。
尽管如此,他仍然保持“谨慎乐观”态度,他相信AI最终将帮助人类治愈所有疾病、发现新的清洁能源、甚至帮助人类实现星际旅行的梦想,他举例说,我们已经从狩猎进化到能制造飞机,我相信未来也能妥善应对AI带来的挑战。
第六、在谈及AI如何改变工作方式时,哈萨比斯提出了一个引人深思的观点。他认为,当前我们面临的最大挑战之一是信息过载,每个人都在被信息海啸淹没,各种算法不断推送内容争夺我们的注意力,但其实这些推送系统甚至算不上真正的人工智能,只是一些简单的软件程序。
我们不得不时常查看各类信息,生怕错过重要事项,然而,每一次查看信息都会打断心流状态,影响工作效率,用来过滤信息的大脑恰恰是需要保持专注的大脑,这构成了一个难以破解的悖论。
这种情况该如何破解,哈萨比斯的答案是——Agent(AI代理)。
假设你有一个能够真正理解你需求的Agent,你可以对它说:“今天我需要专注工作,只在真正紧急的情况下打断我”,它会帮你监控所有信息渠道,确保你不会错过重要事项,同时又能保持专注。
这不是简单的信息屏蔽,而是智能化的信息管理。未来的Agent将扮演个人助理的角色,它理解场景,懂得轻重缓急,知道什么时候应该打断你,什么时候应该等待,从而帮助我们在信息洪流中保持清醒,让我们的注意力集中在真正重要的事情上。
关于哈萨比斯,他是Google DeepMind创始人兼首席执行官,也是曾在围棋比赛中击败柯洁的“AlphaGo之父”,并且他在去年因为“在蛋白质设计和蛋白质结构预测领域作出贡献”拿到2024年“诺贝尔化学奖得主”。
谈获奖:这就是我能这么快拿到诺奖的理由
问:我们的话题从诺奖开始吧,当时什么感受?
Hassabis:说实话,这是一种非常超现实的体验,哪怕到现在依然感觉不太真实。对我来说,这是毕生梦想照进现实,因为我最初投身AI领域,就是为了推进科学发展,将AI作为终极工具来推动科学进步,帮助人类健康,比如药物研发。
问:能简单解释一下AlphaFold是什么吗?
Hassabis:我们因为一个叫AlphaFold的程序获得了诺贝尔化学奖,这个程序能仅通过蛋白质的氨基酸序列(也就是基因序列),就预测出它的三维结构。
这非常重要,因为蛋白质的三维结构决定了它的功能,而我们体内的一切都依赖于蛋白质。所以,如果你想了解疾病,或者研究生物学原理,或者设计药物,你都需要理解蛋白质的三维结构。AlphaFold就是解决这个问题的答案。
说一个趣事,我们是在10月9日突然得知获奖消息的。这很出人意料,因为通常要等待10、20、30甚至40年才能获得诺贝尔奖,而我们只用了4年。
我们的庆祝方式很美好:我的一些朋友,包括世界上最顶尖的国际象棋和扑克选手,大家聚在一起,办了一场扑克和象棋之夜,这可能是世界上最高水平的家庭扑克比赛了,连国际象棋世界冠军马格努斯·卡尔森都在场。
问:刚才提到,通常需要很长时间才能获得诺奖认可,所以这是否也是对AI的认可?因为其他两位诺奖得主,也是因为AI相关工作获奖。
Hassabis:确实,这似乎就是诺贝尔委员会想传达的信息。包括物理学奖的杰弗里·辛顿(Geoffrey Hinton)和约翰·霍普菲尔德(John Hopfield)所做的基础性工作,再加上我们的工作,这标志着AI已经足够成熟,能够帮助解决一些更深层的科学挑战。
诺贝尔委员会不仅关注研究突破本身,更关注其实际影响。诺贝尔在遗嘱中说明,奖项是授予“对人类最大福祉”的贡献。通常需要几十年,才能证明这种影响力,而AlphaFold的影响力来得如此之快:全球已有250多万研究者在使用它,我们已经解析了2亿个已知的蛋白质结构。
如果用传统实验方法,解析一个蛋白质结构平均需要5年,一个博士生整个博士生涯可能只能解析一个,照这个速度,解析2亿个蛋白质结构将需要10亿年的博士生时间。
而我们将这些全部免费开放给世界使用,这就是我所说的“数字速度的科学”,我们会看到越来越多这样的例子。
问:继续谈谈你们在做的突破性研究吧,估计每个人都很好奇,虽然可能不方便谈到具体的疾病,但你认为哪些领域会出现突破?
Hassabis:我们现在主要在两个方向大规模投入:
第一个是继续基础研究,开发更好的生物学、化学、物理数学模型,包括天气预报模型。我们用通用AI系统开发这些模型,比如AlphaFold 3就能处理生物学动态过程。
第二个方向是实际应用。我们成立了Isomorphic Labs公司,基于AlphaFold技术开发药物。
要知道,了解疾病相关蛋白质的3D结构只是拼图的一部分,你还需要设计药物分子,确保它无毒性,具有合适的性质,能够溶解等……这需要很多与AlphaFold同样复杂的模型配合使用。
传统上,开发一种药物平均需要5-10年,我们希望把这个过程加快10倍,这将是医疗健康领域的一场革命。
问:什么时候能看到第一个由AI主导研发的药物?
Hassabis:我们去年宣布了与礼来和诺华的合作,他们给了我们一些最难的靶点,这些靶点,连他们的化学家都找不到好的候选药物。我们也有自己的药物研发项目,涉及癌症、心血管疾病、神经退行性疾病等重大领域。我认为到2025年底,我们就会有第一个药物进入临床试验。
谈Gemini:我们有自己的“思考模型”
问:我知道你主要关注科学,但你现在负责谷歌的所有AI工作,2024年很多人认为谷歌落后于OpenAI,但你们却取得了几个突破,对你来说最重要的是哪个?
Hassabis:2024年确实硕果累累。年底我们发布了一系列新模型,包括Gemini 2.0。它的Flash版本虽然体积最小,但非常强大高效,服务了数十亿用户。
我们还有Veo 2视频模型,它能以惊人的准确度模拟物理世界。比如,它能生成切番茄的视频,这听起来可能很简单,但要准确展示手指和刀的位置,切片不会重新粘在一起,这是很复杂的。
这是我们所说的“世界模型”的开端,它不仅理解语言,还能理解世界的丰富性和时空性质,这也是构建通用AI助手的基础,能在日常生活中真正帮助到你。谷歌DeepMind的项目Project Astra就是在做这个,现在还在测试阶段,但希望今年晚些时候能向普通用户开放。
问:让我们谈谈竞争。你们的一个竞争对手现在有了能推理的大语言模型,Gemini 2.0能推理吗?
Hassabis:我们有自己的“思考模型”,你可以叫它“推理模型”,这是目前所有顶级实验室最活跃的研究领域。
基本思路是,让模型在给出答案前先思考,对自己的回答进行回顾,甚至利用搜索等工具
来核实信息,最后再输出结果,这是一种可行的解决方案。这可以解决当前模型的很多问题,比如虚构信息。规律很简单:给模型更多思考时间,它就能给出更准确的答案。
实际上,我们在这方面有十多年经验。从AlphaGo开始,包括我们早期的所有游戏项目,都是基于Agent(智能体)系统,都包含模型的推理、搜索。现在我们把这些经验再用上,但区别在于,现在我们不是用它来开发游戏,而是要用在现实世界中,这显然复杂得多,这些都需要进行建模,并了解这个世界的运行规律,因此规划难度大得多。
比如说,在围棋或国际象棋中,规则很简单,AI很容易理解和学习。但现实世界却复杂多了,即使你的世界模型只有1%的误差(实际上通常有10%左右),如果你推理100步,这个误差会不断累积,最后可能落入一个完全随机、毫无意义的状结果。所以要在这么长的推理链上保持准确性,对模型的要求非常高,这就是我对AI推理能力感兴趣的原因。
谈AI幻觉:既要让它可控,又要让它有创造力
问:说到推理,目前大语言模型最基本的问题之一是幻觉问题,你可能也经常被问到这个问题,有一种解决方法是让模型自己核实答案,但似乎也不太有效,为什么?
Hassabis:是这样的,我们正在用多种方法解决幻觉问题,这对我们特别重要,因为如果你想用这些模型做科学研究,就绝对不能虚构引用或论文。Gemini 2.0模型在这方面比上一代有很大进步。
具体有几种方法:首先,可以在预训练阶段,就过滤掉错误信息;其次,可以使用工具,比如用谷歌搜索来核实事实,这对我们来说是很自然的动作,但系统需要学会什么时候该使用搜索工具,这个学习过程并不是自动的;最后就是推理,给系统更多时间思考,让它能够回溯检查,而不是立即输出第一个答案。
问:有人告诉我,其实不应该完全消除AI幻觉,因为这是它创造力的一部分,你同意吗?
Hassabis:在某些领域可能是这样。但关键是要让它成为一个可控的功能,而不是意外发生的事情。你应该能决定什么时候要创造性思维,当然我们还需要讨论“创造力”对它来说到底意味着什么。
谈AI工具:最常用的是NotebookLM
问:说到大语言模型,你自己是怎么使用Gemini的?你又是怎么教你的孩子用它的?
Hassabis:我的孩子们喜欢用创意工具,比如图像生成功能。我个人主要用基于Gemini的应用,比如NotebookLM。
这是个很有趣的工具,你可以输入任何你感兴趣的研究论文或网页,它会生成一个非常吸引人的播客,效果很好。一开始我以为,只需要AI总结内容然后念出来就够了,但实际上,让两个AI角色进行对话式的评论要有趣得多。现在它新增了个功能,你甚至可以随时打断“播客”,问他们问题。如果你没试过,我建议你试试,真的很神奇。
我几乎每天都用它,来了解新的研究领域,帮我快速入门,掌握核心要点,然后决定是否需要深入研究。
谈AGI:5-10年会到来,还需1-2个突破
问:你经常说,你所做的一切都是为了实现AGI(通用人工智能)。但我还是不明白,我们到底在试图解决什么问题?为什么一定要追求AGI?你觉得需要多久才能实现?
Hassabis:我一直在探索的问题是,现实的本质以及宇宙中的深奥问题,从小我就对这些问题着迷。通常对这感兴趣的人会选择物理学,我也很喜欢物理学,这是我最喜欢的学科。
但在读了费曼、温伯格等大师的著作后,我意识到,也许问题在于我们需要帮助,即使是最聪明的专家也需要工具来帮忙。对我来说,AI就是那个工具,是我对寻求人类深层需求的工具。
如果我们真的想理解物理学本质,或者意识、梦境和时间的本质,就需要AGI级别的工具。我们天天与时间打交道,却连时间是什么都不知道,这至今是个谜。
我还特别喜欢哲学,我认为当今世界需要一位像康德那样的哲学家,来帮助我们理解我们正在走向何方。所以,要完全理解现实的本质,包括所有的物理学,我们需要AGI级别的能力。
问:具体时间表呢?是5年、10年、还是50年?
Hassabis:我通常不给具体时间表,但这要看你怎么定义AGI。在DeepMind,我们在这二十年来对AGI的定义一直很明确:一个能展现人类所有认知能力的系统。
之所以这样定义,是因为人类思维是我们目前在宇宙中唯一知道的通用智能例子。所以如果你说AGI,而不是狭义的智能,至少要能做到人类思维能做的所有事情,包括创造力。按这个定义,我认为我们离AGI还有5-10年的距离,可能还需要一两个关键突破。
问:谁来决定我们是否达到了AGI?是科学家、AI专家,还是政府和社会?他们在这场讨论中似乎没什么发言权。
Hassabis:这需要整个社会的参与。包括企业实验室、学术界、公民社会、道德专家、政府。在考虑技术部署和产品时,我们需要考虑所有可能受影响的人。
在谷歌和DeepMind,我们一直在努力与各方沟通,举办AI科学论坛,我经常与各国皇家学会、美国国家科学院等机构交流,但我觉得我们可能还缺少合适的AI机构。
问:你最担心什么风险?
Hassabis:我主要担心两大风险:
第一,不法分子滥用通用系统,用于不正当用途。这是老生常谈的问题,任何变革性技术都会面临这个问题。
问:这就是你不支持开源的理由?
Hassabis:恰恰相反,我们非常支持开放科学和开源,AlphaFold就是完全开源的,我敢说,现代AI产业80%-90%都建立在谷歌和DeepMind过去十年公开发表的研究成果上,比如Transformer架构和AlphaGo等——我们之所以公开分享所有这些理念,是因为科学进步最快的方式就是信息共享。
但AI这项技术与众不同,它太具有变革性,用途又非常广泛。系统越通用,就越容易被重新配置做其他用途。这就是为什么我对开源倡导者说,我很希望能开源,让更多好的应用成为可能,但随着系统变得越来越强大,我们如何防止被有害使用?一旦开源,就收不回来了。起码通过API提供服务的话,如果发现什么问题,还可以关闭访问。
AI还有另一个复杂之处:它是一种涌现性技术。它不像汽车引擎,你测试到极限,就知道它能做什么、不能做什么。即使测试六个月,当数十亿人使用时,可能某个聪明人就会发现一些新的用法组合,产生新的能力。
而AI的第二个风险是:技术本身带来的AGI风险。这不是现在的问题,但随着我们接近AGI,这个问题会越来越重要。科学史告诉我们,如果某件事可行且有价值,人们就会去做,这是不可避免的趋势。现在AI已经发展到了一个关键节点,精灵已经出了瓶子,我们再也无法将其束之高阁了,只能努力确保它以安全的方式发展。
诸如一些当今社会的挑战,促进经济增长、应对气候变化、提高医疗效率、推动医学应用、从多方面治疗疾病等,我们恐怕很难解决这些问题,除非引入AI,但我们必须以理性和负责任的态度推进AI,我建议以科学方法为核心来推进。
问:有意思的是,马斯克起初主张暂停AI发展,他想缓一缓,但现在他也推出了Grok,这可能带来问题,其严重程度远超监管不足的问题,你怎么看?你和他很早就认识了吧?
Hassabis:对,我们是老朋友了,我和他认识已经超过12年了,我们从一开始就在探讨AI的话题,应该是我最初把他带入AI领域的。
这里的利害关系远不止是公司层面,也不仅关乎产品或其他东西,回顾我们刚才的讨论就会发现,这涉及到某种人类的未来,关乎人类的生存状态,以及我们作为社会和物种真正想要前进的方向,至少有些人已经意识到这一点,但可能还需要更多人认识到这一点,我认为短期内人工智能被过度炒作了,比如你在X和其他平台上听到的那些AI消息,什么“明年就能实现AGI”,搞得大家都有点儿疯狂了,但实际上人们仍然低估了它,没有充分认识到AI在未来5-10年这样的中长期内将带来的巨大变革。
问:令我惊讶的是,企业采用AI的速度进展比我原本预想的要慢得多,我觉得在ChatGPT推出的第一年后,很多人觉得有必要试一下,他们也确实试了,但还没找到真正合适的用途。
Hassabis:我觉得这很合理,我们就是处在这个阶段,这些看似很厉害的系统,只适用于一些特定场景,比如总结文档、做点研究、或者写些套路化的推荐信之类的,这就是我认为我们距离AGI还很远的原因。
要是真的接近了,你应该能想象到各种全能助手的出现,这些助手每天都在各方面帮助你,从推荐有趣的观看内容、到全方位丰富你的生活,但现在我们还看不到这些,但我相信它终会实现。
谈AI变革:算法推荐还算不上真正的AI
问:你觉得AI会如何影响我所在的行业?
Hassabis:这个嘛,我也说不准,但我认为它的影响会是方方面面的。
我对社交媒体问题有很多思考,我感觉我们每个人都被信息淹没了,用户被算法推送的信息狂轰滥炸,这些算法甚至都算不上AI,(比如推荐系统之类的)它们其实就是普通的软件程序,还不能被称为AI系统,我们就这样被信息海洋淹没了,这些信息都在争夺我们的注意力。
我一直在想,我们能否让技术真正为我们个体服务,假设你有一个能聊天的智能助手,你可以这样设置它:“今天我想安静地专注于写作、编程或科研等工作,不管是什么工作,只在必要时提醒我,帮我关注社交媒体和其他重要信息,只有遇到紧急事务时才通知我”,然而目前的现实是,我们还无法实现这一点,所以你不得不花精力涉足信息的汪洋,去寻找你真正关心的信息,但问题是,用来过滤信息的大脑在看信息的时候,正处于心流状态,一旦参与这种信息过滤,就会影响到你的大脑状态。
所以我认为更好的方式是,让一个AI系统为你执行这项任务,这也是Agent愿景的一部分。
好文章,需要你的鼓励
2025年将是制药和生命科学行业变革之年。政治和地缘政治变化将重塑全球关系,监管环境也可能发生变化。行业需要适应短期内从创意到价值创造的趋势,聚焦成果。数据科学、人工智能、客户参与模式转型、罕见病治疗等领域将出现重大进展,为医疗保健带来革命性变化。
英国科研团队正在开发基于人工智能的数字工具,旨在通过常规眼科检查预测痴呆症风险。该项目利用近百万份视网膜扫描图像训练AI,寻找痴呆症的早期迹象。这一创新方法有望加速痴呆症的诊断和治疗研究,为患者及其家人带来希望。
本文介绍了5个ChatGPT提示,可帮助人力资源专业人士提高工作效率。这些提示涵盖了技能差距分析、编写招聘描述、筛选简历、传达企业价值主张以及消除招聘偏见等方面。通过巧妙运用这些AI工具,人力资源团队可以更智能地工作,提升招聘和人才管理的效果。
智能手机正在成为改变全球医疗健康的关键工具。华盛顿大学教授 Shyam Gollakota 利用智能手机开发出创新诊断工具,如检测睡眠呼吸暂停的应用和低成本无线耳机等,旨在提高医疗可及性,特别是在中低收入国家。这些突破性技术有望使快速、经济的诊断服务惠及更多人群,从而挽救生命。