Ollama 介绍,搭建本地 AI 大模型 deepseek,并使用 Web 界面调用

Ollama 是一个基于 Go 语言的本地大语言模型运行框架,类 Docker 产品(支持 list,pull,push,run 等命令),事实上它保留了 Docker 的操作习惯,支持上传大语言模型仓库 (有 deepseek、llama 2,mistral,qwen 等模型,你也可以自定义模型上传)。

在管理模型的同时,它还提供了一些 Api 接口,让你能够像调用 OpenAI 提供的接口那样进行交互。

一、下载安装 Ollama

Ollama 支持多平台部署,你可以在官网,选择适合的安装包。

下载地址:https://ollama.com

运行之后,访问 localhost:11434,查看是否正常运行:

二、AI 模型管理

ollama 安装之后,其同时还是一个命令,与模型交互就是通过命令来进行的。

  • ollama list:显示模型列表。
  • ollama show:显示模型的信息
  • ollama pull:拉取模型
  • ollama push:推送模型
  • ollama cp:拷贝一个模型
  • ollama rm:删除一个模型
  • ollama run:运行一个模型

官方提供了一个模型仓库,https://ollama.com/library, 你可以搜索你想要的模型。

官方建议:应该至少有 8 GB 可用 RAM 来运行 7 B 型号,16 GB 来运行 13 B 型号,32 GB 来运行 33 B 型号。

在这里我选择下载目前最火的开源 deepseek-r1 模型来做演示。模型地址为:https://ollama.com/library/deepseek-r1 ,因我的电脑有 32G,所以选择了 14b 的模型来调试。

    ollama run deepseek-r1:14b

执行命令,如果本地没有该模型,则会先下载模型再运行。首次运行启动可能略慢。

三、简单交互

模型运行之后,会默认进入到交互状态,你可以按下 Ctrl + D 退出交互,但此时模型并不会退出,仍旧可以正常通过 Api 接口交互。

终端交互示例:

接口请求参考官方文档的介绍 API 文档,下边是简单的示例:

curl http://localhost:11434/api/generate -d "{\"model\":\"deepseek-r1:14b\", \"prompt\":\"介绍下JeecgBoot是什么项目\", \"stream\": false}"

接口请求支持 stream 模式,上边这个请求响应 10s 左右,如果使用 stream 模式,体验会提升不少。

四、通过 Web 界面调用大模型

这里介绍几个 UI 框架可以直接与 ollama 大模型对接。

项目一 :ollama-webui-lite

项目地址: https://github.com/ollama-webui/ollama-webui-lite

此项目是 open-webui 的简化版,注意需:node >= 16

git clone https://github.com/ollama-webui/ollama-webui-lite.git
cd ollama-webui-lite
yarn
yarn dev

运行之后,你可以对连接信息进行设置,默认是连接本机的 http://localhost:11434/api,如果你也是本机部署,那就不用更改。然后界面选择启动的模型,就可以对话了。

项目二 :lobe-chat

项目地址:https://github.com/lobehub/lobe-chat

这是一个集成多种模型能力的对话聊天 UI,部署简单,界面酷炫。

Docker 部署命令:

docker run -itd --name=lobechat -p 3210:3210 registry.cn-hangzhou.aliyuncs.com/jeecgdocker/lobe-chat

如果你是本地 ollama 部署,启动之后,就可以在 web 界面进行交互了。 目前最新版还不支持 deepseek v3,可以先用其他大模型测试下

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容