在AI时代,数据传输工程意味着什么?许多顶级专业人士认为,这比过去任何时候都更加重要。毕竟,人工智能的工作原理是接收信息并处理它——这与人类大脑的工作方式惊人地相似。
信息本身很有价值,处理过程也同样宝贵。此外,大语言模型的现代进展为我们提供了看待数据传输的新方式。
**解锁孤立数据**
William Lindskog Munzing在演讲中介绍了一个名为Flower的应用,他指出传统上数据一直被困在孤立的系统中。
他说,目标是将AI移动到数据所在的位置。随着量化、基础模型和低比特系统的发展,边缘AI已成为现实——能够将AI定位在数据已存在的地方,而不是将其移植到集中式数据中心。
基于这一理念,拥有约5800名开发者和2000个活跃项目的Flower社区正在开发Munzing所称的"Collective-1"用户拥有平台。
"我们相信数据应该保留在其产生的地方,"他说。"数据从不传输,它保留在你的设备中,你的汽车中,或者医院中。"
他补充说,这个ISO认证的项目也非常通用。"我们在部署运行时方面做了很多工作,所以现在你很容易在CPU、GPU上运行实验,然后将其扩展到实际的现实世界部署,如果你想添加安全机制、身份验证等功能。"
**AI用于潜在客户管理**
Marco Cello在第二场演讲中介绍了名为Meshify的项目。
他解释说,数据显示中小企业(SME)的平均效率约为大企业的50%,仅仅因为糟糕的潜在客户管理,中小企业集体损失高达5000亿美元的收入。
作为解决方案,Meshify会扫描专业人士的收件箱,进行跟进,并为他们提供自动化的CRM洞察。
值得注意的是,这个项目使用了MIT同事开创的NANDA去中心化网络理念。实际上,Flower也是如此,这表明为AI创建功能性网络协议的倡议正在获得动力。
**监管与控制**
第三场演讲来自德勤的Peeyush Aggarwal,他谈论了AI时代变化的各个维度。
这场演讲有所不同,因为Aggarwal并不是在推广特定的初创公司或产品。相反,他谈论的是周期——从辅助到增强再到自动化的周期,以及AI发展的优先事项,包括:
监管努力、解决数据和隐私担忧、复杂流程的控制、透明度
"人类的优势需要被放大,"Aggarwal说。"如何培训银行家进行认知和决策,当人们被设计为直线思维时?在环境中谈判和做出道德决策的能力是最重要的方面。"
在提及需要控制银行业变革文化时,Aggarwal从董事会角度分析了AI活动的许多方面,引述了从传统银行业到数字银行业,再到智能银行业的渐进变化和演进。
在演讲结束时,他进入了一个有趣的哲学路径,谈论人类和AI智能体的管理。
"最重要的部分是,当你将人类和AI智能体结合在一起时,你是控制AI,还是控制AI和人类共同做出的决策?这是最重要的方面。当监管者审查用例时,他会问:'我能重复这个用例吗?我能重复被问的问题吗?'如果你不能,你就无法真正批准他们的用例。"
换句话说,管理人类和AI智能体的管理者与仅管理人类的管理者有着不同的角色。你正在管理人类与技术的交集。
在我们努力适应快速变化的技术使用目标的时代,这些都是一些有趣的启示。
Q&A
Q1:Flower应用的核心理念是什么?
A:Flower应用的核心理念是将AI移动到数据所在的位置,让数据保留在其产生的地方,从不传输。数据会保留在用户的设备中、汽车中或医院中,解决传统数据被困在孤立系统中的问题。
Q2:Meshify如何帮助中小企业提升效率?
A:Meshify通过扫描专业人士的收件箱、进行自动跟进,并提供自动化的CRM洞察来帮助中小企业。数据显示中小企业仅因糟糕的潜在客户管理就损失高达5000亿美元收入,Meshify正是为解决这一问题而设计的。
Q3:在AI时代管理人类和AI智能体有什么特殊要求?
A:管理人类和AI智能体需要控制的是AI和人类共同做出的决策,而不仅仅是控制AI本身。管理者需要确保用例的可重复性和可验证性,能够重复用例和问题,这样监管者才能批准相关用例。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。