Opera浏览器支持本地下载运行大语言模型,超150款可选

Opera宣布其浏览器现已支持用户在本地下载并运行大型语言模型(LLM),首先向Opera One开发者版用户开放。用户可从50多个模型系列中选择超过150个模型,包括Meta的Llama、谷歌的Gemma等。该功能基于Ollama开源框架实现,每个模型将占用2GB以上本地存储空间。Opera VP Jan Standal表示,这是Opera首次在浏览器中直接提供大量第三方本地LLM访问入口。

网页浏览器公司Opera今日宣布,用户现在可以直接在本地计算机上下载并运行大语言模型。该功能首先面向获得开发者流更新的Opera One用户开放,用户可从50余个模型系列中选择超过150款大语言模型。

可选模型涵盖Meta的Llama、Google的Gemma以及Vicuna等。该功能作为Opera AI功能提前体验计划(AI Feature Drops Program)的一部分,让用户能够抢先使用部分AI功能。

Opera表示,浏览器底层采用Ollama开源框架来在本地运行这些模型。目前所有可用模型均来自Ollama的模型库,未来公司计划进一步纳入来自不同来源的模型。

Opera提醒用户,每个模型变体将占用超过2GB的本地存储空间,因此使用前需注意硬盘剩余空间是否充足。值得注意的是,Opera目前在模型下载过程中并未进行任何存储优化处理。

Opera副总裁Jan Standal在接受TechCrunch采访时表示:"Opera首次在浏览器中直接提供了大量第三方本地大语言模型的访问入口。预计随着这些模型针对特定任务的专业化程度不断提升,其体积也将逐渐缩小。"

如果你希望在本地测试多种模型,这项功能将非常实用。不过,若想节省存储空间,也可以使用Quora的Poe或HuggingChat等在线工具来体验不同的模型。

Opera自去年起便持续探索AI驱动功能。去年5月,公司在侧边栏推出了名为Aria的AI助手,并于8月将其引入iOS版本。今年1月,Opera宣布将为iOS平台打造一款搭载自研引擎的AI浏览器,此举源于欧盟《数字市场法》(DMA)要求苹果取消对移动浏览器强制使用WebKit引擎的规定。

Q&A

Q1:Opera本地大语言模型功能支持哪些模型?

A:Opera目前支持超过150款大语言模型,来自50余个模型系列,包括Meta的Llama、Google的Gemma以及Vicuna等。所有可用模型目前均来自Ollama开源框架的模型库,未来Opera计划进一步纳入来自不同来源的模型,选择范围将更加丰富。

Q2:在Opera中下载大语言模型需要多少存储空间?

A:每个大语言模型变体将占用超过2GB的本地存储空间。Opera目前在下载过程中未进行任何存储优化,因此建议用户在下载前确认本地硬盘有足够的剩余空间,以免造成存储不足的问题。

Q3:Opera本地大语言模型功能目前向哪些用户开放?

A:该功能目前首先面向订阅开发者流更新的Opera One用户开放,作为Opera AI功能提前体验计划(AI Feature Drops Program)的一部分,让用户能够提前体验部分AI新功能。后续将逐步向更多用户推广。

来源:TechCrunch - LLMs

0赞

好文章,需要你的鼓励

2026

05/12

17:52

分享

点赞

邮件订阅