东北街溜子--手把手帮你本地化部署ollama+webui来部署大模型

我的显卡

以上是我的显卡的参数,可以运行llama3.2:3b,qwen2.5:14b模型,不同模型上网自行获取。

1. 添加环境变量

在下载 ollama 之前,先去配置环境变量,确保模型下载到我们想要的地方

win10 和 win11 输入path或者环境变量:

增加系统环境变量

变量名不可更改,必须是OLLAMA_MODELS,变量值可以自定义,如图1-1-1所示

2. 下载ollama

下载网址:Download Ollama on Windows

下载后得到安装包,如果不添加环境变量的话,默认会安装到C盘,如下图2-1-1所示

图2-1-1

3. 检验是否安装成功

win+R 输入cmd后,弹出命令行界面,输入ollama命令,正常的得出命令行输出,表示已经安装成功, 如图3-1-1、3-1-2所示

图3-3-1
图3-1-2

4. 通过ollama下载模型

4.1. ollama 模型库

详见library (ollama.com),用于搜索已收录的模型库。以下是一些流行的模型:

4.2. 下载运行llama3.2 3b

ollama run llama3.2:3b # 运行llama3.2:3b大模型

直接使用 run 命令 + 模型名字就可以运行模型。如果之前没有下载过,那么会自动下载。下载完毕之后可以在终端中直接进行对话了。如图4-2-1所示

图4-2-1

5. 安装open-webui

open-webui 是一款可扩展的、功能丰富的用户友好型自托管 Web 界面,旨在完全离线运行。它支持包括 Ollama 和与 OpenAI 兼容的 API 在内的多种 LLM 运行器。想了解更多信息,可以查阅开放式WebUI文档。

5.1. docker 卸载

控制面板 -> 卸载程序 -> 双击Docker Desktop,如图所示

但这样卸载不干净,存在文件残留,我尝试找到了几个,供参考:

"C:\Users\zhouxs\AppData\Local\Docker"

"C:\Users\zhouxs\AppData\Roaming\Docker"

"C:\Users\zhouxs\AppData\Roaming\Docker Desktop"

5.2. docker 安装

docker 官网:https://www.docker.com/products/docker-desktop/

先去官网下载安装包,选择对应的操作系统和CPU架构的安装包

图5-2-1

完毕之后打开docker desktop进入图5-2-2下面这个界面:

图5-2-2

5.2.1修改镜像站

选择设置(Settings),选择Docker Engine, 添加镜像站,加快下载速度,添加后点 Apply,如图5-2-3

{

  "builder": {

    "gc": {

      "defaultKeepStorage": "20GB",

      "enabled": true

    }

  },

  "experimental": false,

  "features": {

    "buildkit": true

  },

  "registry-mirrors": [

    "https://1nj0zren.mirror.aliyuncs.com",

    "https://docker.mirrors.ustc.edu.cn",

    "http://f1361db2.m.daocloud.io",

    "https://registry.docker-cn.com"

  ]

}

图5-2-3

5.2.2修改docker image存储文件来

选择设置(Settings),选择资源(Resources), 选择高级(Advanced), 修改存储位置为D盘D:\ProgramData\Docker下,选择Apply&Restart,  如图5-2-4所示

5-2-4

到这里 docker desktop 的配置就大功告成了,可以开始下载 open-webui 容器了 。

5.3. 通过 docker 下载 Open WebUI

如果没有GPU运行

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如果 Ollama 位于不同的服务器上,请使用以下命令:

要连接到另一台服务器上的 Ollama,请更改OLLAMA_BASE_URL为该服务器的 URL:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

完成后如下图5-3-1所示

图5-3-1

5.3.1. 仅供OpenAI API 使用安装

如果您仅使用 OpenAI API,请使用此命令:

docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

5.3.2. 同时安装 Ollama 和 Open WebUI

此安装方法使用将 Open WebUI 与 Ollama 捆绑在一起的单个容器映像,从而允许通过单个命令进行简化设置。根据您的硬件设置选择适当的命令:

借助 GPU 支持:通过运行以下命令来利用 GPU 资源:

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

仅适用于 CPU:如果您不使用 GPU,请改用以下命令:

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

这两个命令都有助于 Open WebUI 和 Ollama 的内置、无忧安装,确保您可以快速启动并运行一切。

安装后,可以通过http://localhost:3000访问 Open WebUI 。

最终效果:

Sign up 创建账户并登录后,左上角模型选择我们之前下好的llama3.2:3b,就可以开始对话了,可以上传文件,响应速度还是很快的:

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容