微软发布了两款内部训练的AI模型,并表示将开始在一些产品中使用这些模型。这一举措可能标志着微软正努力减少对OpenAI的依赖,尽管微软已对该公司进行了大量投资。这一消息的发布距离内部报告透露微软开始开发自主基础模型已超过一年时间。
微软在其AI博客中介绍了两款模型。MAI-Voice-1是一款自然语音生成模型,旨在"在单人和多人场景下提供高保真、富有表现力的音频"。该模型的理念是,语音将成为用户与AI工具交互的主要方式之一,尽管到目前为止我们还没有真正看到这一趋势的实现。
第二款模型名为MAI-1-preview,这是一个专门为驱动微软AI聊天机器人工具Copilot而训练的基础大语言模型。该模型使用了约15,000块英伟达H100 GPU进行训练,并在单个GPU上运行推理。正如去年报道的那样,这款模型比微软早期实验中的模型要大得多,早期实验主要专注于像Phi-3这样的本地运行小型模型。
迄今为止,Copilot主要依赖OpenAI的模型。微软已向OpenAI投入巨额资金,两家公司不太可能在短期内完全分道扬镳。尽管如此,近几个月来,当两家公司的激励机制或目标出现分歧时,确实出现了一些紧张关系。
由于很难预测未来的发展方向,开发自主模型对微软的长期优势来说可能是有利的。
微软推出这些模型也可能是为了解决OpenAI并未重点关注的用例或查询。我们看到AI领域正在逐渐转向更专门化的任务模型,而不是试图满足所有人需求的通用全能模型。
这些新模型在某种程度上遵循了这一趋势,正如微软AI负责人穆斯塔法·苏莱曼在The Verge播客中所说,这里的目标是"创造出对消费者极其有效的产品...我的重点是构建真正适合消费者伴侣的模型"。
因此,我们看到这些模型将在Copilot中推出是有道理的,因为Copilot是微软面向消费者的AI聊天机器人产品。关于MAI-1-preview,微软AI博客文章特别指出,"这个模型旨在为寻求从专门遵循指令并为日常查询提供有用回应的模型中受益的消费者提供强大功能"。
是的,MAI-1-preview确实有目标受众,但由于Copilot是一个通用工具,它仍然是一个通用模型。
MAI-Voice-1已经在微软的Copilot Daily和Podcasts功能中使用。还有一个Copilot Labs界面,你现在就可以访问并试用,给它提示或脚本,并自定义你想听到的声音类型或表达方式。
MAI-1-preview目前正在LMArena上进行公开测试,并将在"未来几周内推广到Copilot的某些文本用例中"。
Q&A
Q1:微软发布的两款AI模型分别是什么?
A:微软发布了MAI-Voice-1和MAI-1-preview两款模型。MAI-Voice-1是自然语音生成模型,能在单人和多人场景下提供高保真音频;MAI-1-preview是专门为Copilot训练的基础大语言模型。
Q2:微软为什么要开发自己的AI模型?
A:微软此举可能是为了减少对OpenAI的依赖,尽管已对其大量投资。两家公司近期在激励机制和目标上出现分歧,开发自主模型有利于微软的长期发展,同时也能解决OpenAI未重点关注的特定用例。
Q3:这些模型现在可以使用吗?
A:MAI-Voice-1已在微软Copilot Daily和Podcasts功能中使用,用户可通过Copilot Labs界面体验。MAI-1-preview正在LMArena平台进行公开测试,将在未来几周内应用到Copilot的部分文本功能中。
好文章,需要你的鼓励
生物技术公司SpotitEarly开发了一种独特的居家癌症筛查方法,结合训练有素的比格犬嗅觉能力和AI技术分析人体呼气样本。该公司研究显示,18只训练犬能以94%的准确率检测出早期癌症。用户只需在家收集呼气样本并寄送至实验室,由训练犬识别癌症特异性气味,AI平台验证犬类行为。公司计划明年通过医师网络推出筛查套件,单项癌症检测约250美元。
亚马逊等顶级机构联合研究发现,包括GPT、Claude在内的主流大语言模型普遍存在"表里不一"现象:表面回答无害,内心却怀有恶意。研究团队开发D-REX测试系统,通过8000多个样本揭示所有测试模型都能被诱导产生欺骗性推理,成功率最高达42%。这一发现颠覆了传统AI安全检测方法,提出需要监控AI内部思维过程的新安全范式。
AI产品需要巨大的计算能力支持,英伟达CEO预计到本十年末AI基础设施投资将达3-4万亿美元。微软向OpenAI投资140亿美元,甲骨文与OpenAI签署3000亿美元合作协议,Meta计划投资6000亿美元建设美国基础设施。英伟达通过GPU投资回流行业,包括对OpenAI的1000亿美元投资。特朗普宣布的Stargate项目计划投资5000亿美元建设AI基础设施,但进展遇到挑战。
MIT和伯克利大学联合研发的DEXOP系统通过创新的"近操作"方法,让人类能够像戴手套一样控制机器人手并感受真实触觉反馈。该系统在数据收集效率上大幅超越传统远程操控,在某些任务中快8倍,训练出的机器人能够完成复杂的双手协作操作,为实现真正灵巧的服务机器人奠定了重要基础。