网页浏览器公司Opera今日宣布,用户现在可以直接在本地计算机上下载并运行大语言模型。该功能首先面向获得开发者流更新的Opera One用户开放,用户可从50余个模型系列中选择超过150款大语言模型。
可选模型涵盖Meta的Llama、Google的Gemma以及Vicuna等。该功能作为Opera AI功能提前体验计划(AI Feature Drops Program)的一部分,让用户能够抢先使用部分AI功能。
Opera表示,浏览器底层采用Ollama开源框架来在本地运行这些模型。目前所有可用模型均来自Ollama的模型库,未来公司计划进一步纳入来自不同来源的模型。
Opera提醒用户,每个模型变体将占用超过2GB的本地存储空间,因此使用前需注意硬盘剩余空间是否充足。值得注意的是,Opera目前在模型下载过程中并未进行任何存储优化处理。
Opera副总裁Jan Standal在接受TechCrunch采访时表示:"Opera首次在浏览器中直接提供了大量第三方本地大语言模型的访问入口。预计随着这些模型针对特定任务的专业化程度不断提升,其体积也将逐渐缩小。"
如果你希望在本地测试多种模型,这项功能将非常实用。不过,若想节省存储空间,也可以使用Quora的Poe或HuggingChat等在线工具来体验不同的模型。
Opera自去年起便持续探索AI驱动功能。去年5月,公司在侧边栏推出了名为Aria的AI助手,并于8月将其引入iOS版本。今年1月,Opera宣布将为iOS平台打造一款搭载自研引擎的AI浏览器,此举源于欧盟《数字市场法》(DMA)要求苹果取消对移动浏览器强制使用WebKit引擎的规定。
Q&A
Q1:Opera本地大语言模型功能支持哪些模型?
A:Opera目前支持超过150款大语言模型,来自50余个模型系列,包括Meta的Llama、Google的Gemma以及Vicuna等。所有可用模型目前均来自Ollama开源框架的模型库,未来Opera计划进一步纳入来自不同来源的模型,选择范围将更加丰富。
Q2:在Opera中下载大语言模型需要多少存储空间?
A:每个大语言模型变体将占用超过2GB的本地存储空间。Opera目前在下载过程中未进行任何存储优化,因此建议用户在下载前确认本地硬盘有足够的剩余空间,以免造成存储不足的问题。
Q3:Opera本地大语言模型功能目前向哪些用户开放?
A:该功能目前首先面向订阅开发者流更新的Opera One用户开放,作为Opera AI功能提前体验计划(AI Feature Drops Program)的一部分,让用户能够提前体验部分AI新功能。后续将逐步向更多用户推广。
好文章,需要你的鼓励
Converge Bio完成550万美元种子轮融资,由TLV Partners领投。该公司专为生物科技和制药行业打造LLM应用平台,提供数据增强、模型微调及可解释性分析等功能,帮助企业将通用生物基础模型转化为可实际落地的研发工具。以抗体研究为例,平台可将抗体LLM精调至氨基酸级别的结合亲和力预测,并生成优化序列。公司计划用于扩充团队、拓展客户,并发布抗体设计科研论文。
香港大学与哈尔滨工业大学联合发布的这项研究(arXiv:2605.06196)发现,大语言模型在扮演不同社会层级角色时,内部神经网络存在一条清晰的"粒度轴",从普通个人视角延伸至全球机构视角。这条轴是AI角色空间的主导几何方向,可被测量、被跨模型复现,并通过激活引导技术加以操控,为AI社会模拟的可信度评估和角色视角的主动调控提供了新工具。
ChatGPT高级语音模式的创造者Alexis Conneau离开OpenAI后,创办了音频AI初创公司WaveForms AI,并获得由a16z领投的4000万美元种子轮融资。该公司专注于训练自有音频大语言模型,计划于2025年推出与OpenAI、谷歌竞争的AI音频产品。Conneau深受电影《Her》启发,致力于开发具备情感感知能力的语音AI,同时警惕AI伴侣化带来的社会问题,强调技术应服务于人而非取代人际关系。
华盛顿大学研究团队发现,在AI数学推理训练中,将随机拼凑的拉丁文占位词(Lorem Ipsum)添加到题目前,能帮助AI突破"全部答错、训练停滞"的困境,在多个模型上平均提升推理得分2.8至6.2分。研究揭示了有效扰动的两个关键特征:使用拉丁语词汇避免语义干扰,以及保持较低困惑度确保AI能正确理解题目内容。