Google 本周二发布了三项全新的 AI 实验项目,旨在帮助用户以更加个性化的方式学习口语。虽然这些实验项目仍处于早期阶段,但公司可能借助 Gemini —— Google 的多模态大语言模型,向 Duolingo 发起挑战。
第一个实验项目帮助你迅速掌握当下所需的特定短语,而第二个实验则旨在让你的口语听起来不那么正式,更贴近当地人的风格。
第三个实验允许你利用相机根据周围环境学习新单词。
Google 指出,学习新语言最令人沮丧的部分之一,便是当你遇到需要某个尚未掌握的特定短语的情境时。
借助全新的 "Tiny Lesson" 实验项目,你可以描述一个情境,例如 "发现护照丢失",以此获得针对该上下文量身定制的词汇和语法建议。你还可以获得如 "我不知道我在哪里丢的" 或 "我想向警方报案" 的应答建议。
下一个实验项目 "Slang Hang" 旨在帮助用户在使用新语言时不再显得像教科书那么刻板。Google 表示,学习新语言时,通常会学到相对正式的说法,因此公司正尝试一种方法,教人们用更口语化、具地方特色的俚语交流。
借助这一功能,你可以生成一段本土语者之间的真实对话,并逐条消息观察对话的展开。例如,你可以通过描绘街头小贩与顾客交谈的情景,或是两位久别重逢的老友在地铁上的见面对话来学习。你可以将鼠标悬停在不熟悉的词汇上,了解它们的含义及用法。
Google 表示,该实验项目有时会误用某些俚语,甚至会虚构词汇,因此用户需要与可信的资料进行核对。
第三个实验项目 "Word Cam" 允许你拍摄周围环境的照片,随后 Gemini 将检测图像中的物体并用你正在学习的语言为其贴上标签。此功能还会提供额外的词汇,供你用来描述这些物体。
Google 表示,有时你只需要掌握面前事物的词汇,因为这能显示出你尚未知晓的部分。例如,你可能知道 "window"(窗户)这个词,但却不知道 "blinds"(百叶窗)的说法。
公司指出,这些实验项目的初衷在于探索如何利用 AI 使自主学习变得更加生动和个性化。
这些新实验项目支持以下语言:Arabic(阿拉伯语)、Chinese(中国大陆、香港、台湾)、English(澳大利亚、英国、美国)、French(加拿大、法国)、German(德语)、Greek(希腊语)、Hebrew(希伯来语)、Hindi(印地语)、Italian(意大利语)、Japanese(日语)、Korean(韩语)、Portuguese(巴西、葡萄牙)、Russian(俄语)、Spanish(拉丁美洲、西班牙)以及 Turkish(土耳其语)。用户可以通过 Google Labs 访问这些工具。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。