谷歌首席执行官Sundar Pichai表示,谷歌正在努力使旗下的人工智能和机器学习模型更加透明,以此抵御系统的偏差。
Pichai提及一系列人工智能增强技术(https://blog.google/technology/developers/io19-helpful-google- everyone /)以及将更多的机器学习模型放在设备上的举动,而对于开发人员和数据科学家而言他说的重点则在于TCAV。 TCAV是概念激活向量测试(Testing with Concept Activation Vectors)的英文缩写(https://ai.google/research/pubs/pub47077)。简而言之,TCAV是一种可解释性的方法,可用于了解神经网络模型用来预测的信号。
理论上,TCAV具有理解信号可能表现出偏差的能力(https://github.com/tensorflow/tcav),因为这些信号会强调男性是否是有别于女性,信号还会表现出其他的问题,如种族、收入和位置。计算机科学家利用TCAV就可以看到价值概念到底有多高的价值(https://arxiv.org/abs/1711.11279)。
偏差是人工智能里的一个重要概念,一些学者呼吁引进更多的自我监管和法例(https://www.zdnet.com/article/why-businesses-will-have-to-audit-algorithms-ai-and-account-for-risk/)。此外,诸如IBM一类的行业参与者也在推动更大的透明度和具有监控算法层的软件,以达到了解算法是如何产生偏见的目的(https://www.zdnet.com/article/ibm-launches-tools -to-detect-ai-fairness-bias-and-open-sources-some-code /)。而与此同时,一些企业也在向着可解释人工智能方向努力(https://www.zdnet.com/article/capital-one-ai-chief-sees-path- to-explainable-ai /)。对于谷歌来说,透明度很重要,因为谷歌的技术包括Duplex和下一代谷歌智能助理(https://www.zdnet.com/article/google-sees-next-gen-duplex- assistant-as-next-step-in-taking-over-your-tasks/ )。这些工具现在为用户执行任务时的功能越来越多。模型的透明度可能意味着对谷歌技术的更多信任和使用。
最关键的一点:透明度和防范偏差对于企业以及为我们提供大多数模型即服务的所有云提供商都至关重要(https://www.zdnet.com/article/top-cloud- providers -2019-aws-microsoft-azure-google-cloud-ibm-makes-hybrid-move-salesforce-dominates-saas/)。
TCAV的使用不需要重新训练模型,TCAV做的是解剖模型即说明模型为何做出某种决定。例如,识别斑马的模型可以使用更高级别的概念来识别斑马。来看一个示例:
Pichai表示,“要为每个人建立一个更有帮助的谷歌就意味着解决偏差问题。你需要知道模型是如何工作的,并且清楚其中可能存在偏差。为此,我们将提高模型的透明度。”
他补充表示,谷歌的人工智能团队正在开发TCAV,这项技术可以允许模型使用更多的高级概念。TCAV的目标是将支撑模型的变量表现出来。“还有做很多的工作,但我们奉行的原则是打造适合所有人的人工智能。”Pichai表示。
由于谷歌能够将模型的大小缩小到可以驻留在设备上,谷歌现在正朝着降低延迟及使用联合学习等技术减少数据使用并增强用户隐私的方向努力。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。