每当我使用AI时,我总是选择本地安装的实例。这样做有两个原因。首先,当我使用本地安装的AI时,我不会消耗已经处于巨大需求中的电网电力。其次,我始终可以信任我的本地AI来保护我的隐私。
使用本地AI实例时,您的信息(包括您的查询)不会与第三方共享,完全100%私密。
您可能认为在家庭实验室中设置本地AI服务器可能是一个巨大的挑战,但实际上并非如此。实际上,这相当简单,我将向您展示如何操作。最终,您将拥有一个AI服务器,可以通过网页浏览器访问,或者通过连接您喜欢的AI图形界面(如Ollama、Alpaca或Msty)来访问服务器。
那么,让我们开始设置吧。
所需条件
您只需要运行Debian或Ubuntu Server实例以及具有sudo权限的用户。
添加用户到Docker组(仅限Debian)
默认情况下,您的标准用户在Debian上不是sudo组的成员。要成功使用Docker(用于部署WebUI),您必须进行此更改。
要在Debian上将用户添加到Docker组,首先切换到root用户:
切换到root用户后,使用以下命令将标准用户添加到Docker组:
其中USER是要添加的用户名。
使用以下命令退出root用户:
注销您的标准用户账户并重新登录,以使更改生效。
安装Ollama
接下来,我们将安装Ollama,可以使用以下命令完成:
安装完成后,让我们下载一个较小的大语言模型(用于测试目的)。您稍后可以随时下载更大的大语言模型。我们将使用以下命令拉取llama3.2模型:
模型成功拉取后,通过运行模型确保其正常工作:
如果您看到Ollama提示符,说明一切正常。使用以下命令退出提示符:
接下来,我们需要配置Ollama接受远程连接。我们将通过systemd来完成此操作。使用以下命令打开Systemd Ollama初始化文件:
在[Service]部分的底部,添加以下内容:
保存并关闭文件。
使用以下命令重新加载Systemd守护进程:
重新启动Ollama服务:
此时,可以通过服务器的IP地址从局域网上的远程机器访问Ollama。如何建立连接将取决于您使用的应用程序。
安装Docker CE
接下来,我们将部署WebUI,以便您可以通过网页浏览器与大语言模型交互。为此,我们将使用WebUI。在此之前,我们必须安装Docker。以下是安装Docker CE的步骤:
使用以下命令添加必要的GPG密钥:
添加官方Docker存储库:
使用以下命令安装Docker:
使用以下命令测试确保可以使用Docker:
您应该看到一个空的Docker容器列表;如果是这样,您就可以开始部署了。
要使用Docker部署WebUI,命令是:
请注意,如果您的机器已经在使用端口3000,您需要更改该端口。
给容器一些时间完成部署。在我的实例中,大约需要两分钟。您可以使用以下命令检查部署状态:
当容器状态显示为健康时,就可以访问了。
访问WebUI
要访问Docker的WebUI实例,打开网页浏览器并指向http://SERVER:3000(其中SERVER是托管服务器的IP地址)。您应该会看到WebUI主页面。
点击底部中央的右箭头,在结果页面中输入所需信息来创建管理员账户。
然后您将看到查询页面。在该页面上,您会发现使用Ollama拉取的大语言模型不可用。因此,点击左上角的模型下拉菜单,然后您需要禁用OpenAI实例,并将本地地址更改为http://SERVER:11434(其中SERVER是您服务器的IP地址)。
现在您可以转到新聊天标签页并运行您的第一个查询。
恭喜,您现在拥有了一个本地AI实例,可以从家庭实验室局域网上的任何机器访问。
Q&A
Q1:为什么要选择本地AI实例而不是在线AI服务?
A:选择本地AI实例有两个主要原因:首先,本地AI不会消耗已经处于巨大需求中的电网电力;其次,可以确保完全的隐私保护,您的信息和查询不会与任何第三方共享,保持100%私密性。
Q2:在Debian/Ubuntu上部署AI服务器需要什么条件?
A:部署AI服务器的条件非常简单,只需要运行Debian或Ubuntu Server实例以及具有sudo权限的用户。整个设置过程相对容易,最终可以通过网页浏览器或AI图形界面(如Ollama、Alpaca或Msty)来访问服务器。
Q3:如何访问部署完成的AI服务器?
A:部署完成后,可以通过两种方式访问AI服务器:一是打开网页浏览器访问http://SERVER:3000(SERVER是服务器IP地址)来使用WebUI界面;二是通过服务器IP地址从局域网上的其他机器连接Ollama服务,具体连接方式取决于使用的应用程序。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。