在推进人工智能与神经科学交叉发展的过程中,研究团队持续关注的核心任务之一是探索自然发育的生物大脑与科学家创造的人工大脑之间的异同。
如今,我们面临着一个全新的对比维度:一边是发展仅约10年的神经网络系统,另一边是在实验室中用生物材料培养的新型生物类器官大脑。
如果你觉得这会让神经学研究变得极其复杂,你并不孤单——即便有了这些完全发育的仿真模型,关于大脑工作原理仍存在大量未解之谜。
**类器官的术语和方法学**
几周前,我撰文介绍了在实验室培养脑组织的过程。不仅仅是培养脑组织,而是培养一个梨形的小型大脑——科学家称之为类器官,它竟然能够自主生长出眼睛。
观察这种奇特现象激发了我们将视觉与智能相联系的本能倾向,促使我们探索眼睛与大脑之间的关系。
人工智能研究和生物科学领域的研究人员都在关注这种关系。在开发当今最有前景的神经网络模型时,研究人员受到了线虫C elegans原始视觉能力的启发,这一发现著名地推动了某些类型的人工智能和医学研究的发展。
回到生物类脑器官的生产,在进一步研究中,我发现科学家使用干细胞和一种叫做"基质胶"的物质——这源于对实验小鼠肿瘤材料长达数十年的分析。这其中有很多值得深入探讨的内容,随着人们意识到这些微型大脑的存在,我们可能会听到更多相关信息。
**探索视觉与智能**
最近一次"行动中的想象力"活动中的一场技术讲座也激发了我对这一领域的兴趣。演讲者Kushagra Tiwary探讨了涉及不同进化类型的"假设"场景。
"我们提出的首要问题是:如果视觉的目标不同会怎样?如果视觉是为了完全不同的目的而进化的呢?第二个问题是:我们的眼睛里都有晶状体,我们的相机也有镜头。如果晶状体没有进化出来会怎样?如果没有晶状体,我们将如何看世界?我们还能探测到食物吗?……也许这些都不会发生。通过提出这些问题,我们可以开始研究为什么我们拥有今天的视觉,更重要的是,为什么我们拥有今天的视觉智能。"
他还提出了更多问题。
"我们的大脑发育速度与眼睛基本同步,可以说我们真正是用大脑而非眼睛在看,对吧?那么如果大脑的计算成本大大降低会怎样?"
他讨论了大脑/眼睛的缩放关系,以及我们视觉处理信息的关键要素。
然后Tiwary提到,这可以指导人工智能研究,因为我们构建智能体的方式与人类自身的构建方式相似。
**计算机视觉、机器人技术和工业应用**
同一活动中的另一场技术讲座涵盖了协作视觉智能。
Annika Thomas回顾了三维工作空间中多智能体系统的一些特征——它们定位和提取对象的能力,以及一种叫做"高斯散射"的技术,这种技术影响着我们对眼睛和大脑之间信息处理的理解。
关键在于,我们拥有所有这些高度复杂的模型——完全数字化的神经网络,以及现在在培养皿中生长的原型大脑。
同时我们还有这些研究成果,向我们展示了人类大脑如何进化、它与人工替代品的差异,以及我们如何继续推动这一领域的进步。
最后但同样重要的是,我最近了解到科学家相信我们将能够在大约100年后,即到2125年时从死者大脑中提取记忆。
为什么需要这么长时间?
我询问了ChatGPT,得到的答案有三个方面——首先,分解过程使工作变得困难;其次,我们没有人类大脑的完整映射;第三,所需信息存储在精细的框架中。
换句话说,我们大脑中的记忆不是以二进制的0和1形式存在,而是以神经结构和突触强度的形式存在,这些对于任何外部研究者来说都难以测量。
不过我想到,如果人工智能本身具有感知细微差别和映射模式的强大能力,这种能力可能并不像我们想象的那么遥远。
这里的关键词是:思考。
好文章,需要你的鼓励
美国网络安全和基础设施安全局指示联邦机构修补影响思科ASA 5500-X系列防火墙设备的两个零日漏洞CVE-2025-20362和CVE-2025-20333。这些漏洞可绕过VPN身份验证并获取root访问权限,已被黑客积极利用。攻击与国家支持的ArcaneDoor黑客活动有关,黑客通过漏洞安装bootkit恶意软件并操控只读存储器实现持久化。思科已发布补丁,CISA要求机构清点易受攻击系统并在今日前完成修补。
康考迪亚大学研究团队通过对比混合量子-经典神经网络与传统模型在三个基准数据集上的表现,发现量子增强模型在准确率、训练速度和资源效率方面均显著优于传统方法。研究显示混合模型的优势随数据集复杂度提升而增强,在CIFAR100上准确率提升9.44%,训练速度提升5-12倍,且参数更少。该成果为实用化量子增强人工智能铺平道路。
TimeWave是一款功能全面的计时器应用,超越了苹果自带时钟应用的功能。它支持创建流式计时器,让用户可以设置连续的任务计时,帮助专注工作。应用采用简洁的黑白设计,融入了Liquid Glass元素。内置冥想、番茄工作法、20-20-20护眼等多种计时模式,支持实时活动显示和Siri快捷指令。免费版提供基础功能,高级版需付费订阅。
沙特KAUST大学团队开发了专门针对阿拉伯语的AI模型家族"Hala",通过创新的"翻译再调优"技术路线,将高质量英语指令数据转化为450万规模的阿拉伯语语料库,训练出350M到9B参数的多个模型。在阿拉伯语专项测试中,Hala在同规模模型中表现最佳,证明了语言专门化策略的有效性,为阿拉伯语AI发展和其他语言的专门化模型提供了可复制的技术方案。