据Android Police周一报道,谷歌翻译即将获得重大AI功能升级,包括选择不同AI模型的能力以及类似Duolingo的游戏化练习模式。
Android分析师AssembleDebug对谷歌翻译应用的最新版本9.15.114进行了分析,发现了用户界面的新变化。在顶部出现了新的模型选择器,提供"快速"和"高级"两个选项。快速模式推测用于快速翻译任务,比如破译菜单项目。高级模式可能会使用Gemini来更准确地理解文本或对话的上下文。
根据报道,此次更新还将包含练习模式,以游戏化方式帮助语言学习,类似于热门语言学习应用Duolingo的做法。
谷歌代表没有立即回应置评请求。
在过去两年中,谷歌一直在展示各种演示并发布功能,使语言翻译变得更加容易。在今年早些时候的Google I/O大会上,这家科技巨头展示了佩戴Android XR智能眼镜进行实时翻译的演示。
随着2023年Pixel Fold的发布,该公司还推出了实时翻译模式,利用设备的内外屏幕。
理解不同语言是AI的一项关键创新。使用大语言模型技术在两种不同语言之间进行翻译,扩展了人类之间可以进行的内容和对话。
谷歌已经在YouTube上发布了自动配音技术,例如允许英语观众观看日语YouTuber的视频。
Q&A
Q1:谷歌翻译的新AI功能有哪些?
A:谷歌翻译将新增模型选择器,提供"快速"和"高级"两个AI模型选项。快速模式用于快速翻译任务,高级模式使用Gemini技术更准确地理解文本上下文。还将增加类似Duolingo的游戏化练习模式来帮助语言学习。
Q2:谷歌在语言翻译方面还有哪些技术创新?
A:谷歌在过去两年推出了多项语言翻译创新,包括Android XR智能眼镜的实时翻译演示、Pixel Fold的实时翻译模式,以及YouTube上的自动配音技术,让不同语言的观众能够观看其他语言的视频内容。
Q3:大语言模型技术在语言翻译中有什么重要作用?
A:大语言模型技术能够在两种不同语言之间进行智能翻译,这是AI的关键创新之一。它扩展了人类之间可以进行的内容和对话范围,让不同语言背景的人能够更好地沟通交流。
好文章,需要你的鼓励
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。