超详细的Deepseek- R1部署指南

最近爆火的国产AI大模型Deepseek相信大家都知道,开源免费,随着热度上升,人人都想趁着AI这股浪潮体验下Deepseek,以至于频繁出现反应迟缓甚至服务器繁忙的情况。那么,现在我就来教大家把Deepseek部署到自己本地和远程API访问Deepseek。

特别说明:本次部署本人使用的是苹果mac m1芯片的电脑,以下部署均已苹果电脑为主(Windows电脑部署原理差不多的)。

方式一、本地部署deepseek

1.查看电脑配置

deepseek模型有不同参数的,跟硬件配置要求息息相关,所以,在部署前,首先要看自己的电脑配置要求,如果不是专门做AI领域的小伙伴,一般常规的电脑选择1.5b-32b之间差不多,太大了反而带不动,b是表示 “Billion”,即 “十亿”的意思。

配置参考图

2.下载ollama

Ollama 是一个用于在本地运行大型语言模型(LLMs)的工具,支持多种主流的大型语言模型,包括 DeepSeek-R1、Mistral 等。用户可以根据自己的需求和场景选择合适的模型。

到Ollama官网 https://ollama.com,点击下载,然后选择适合自己系统的版本,这里选择macOs,然后点击Download for macOS下载。

官网下载

下载后安装即可,安装成功后,系统托盘图标会出现一个常驻的Ollama标记。

ollama图标

接下来,回到ollama官网,点击左上方的“Models”按钮,目前最火的R1模型排在最前面,根据自己的电脑配置,下拉选择一个版本,我自己选择的是7b。点击第三步的复制,把命令行复制下来:ollama run deepseek-r1:7b。

在键盘上按command+空格,输入Terminal,打开命令行,输入刚刚复制好的命令:ollama run deepseek-r1:7b(想换别的版本,替换掉后面的版本号就行,如,7b换32b),模型拉取成功后,就可以跟deepseek对话了。(注意:如果是Windows电脑,在搜索栏输入“cmd”回车,唤出命令行窗口)

任意输入内容或者问题,deepseek在经过思考后回答问题。但是,每次使用都需要用命令行,有点不适合用户使用,那怎么办呢,没关系,我们可以搞一个客户端、或者图形页面来跟deepseek对话。

3.下载安装Docker

先从官网https://www.docker.com 下载Docker,这里选择mac版本,下载后安装,安装时配置选项默认即可,不用做任何改动。(Windows电脑安装后需要重启电脑)

安装成功后,注册Docker账号登录进来。

4.安装Open WebUI

打开“https://github.com/open-webui/open-webui”链接,浏览器页面往上滑动,找到“If Ollama is on your computer, use this command”这一项,点击右边的按钮复制这个指令:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

回到Terminal命令行终端(之前打开的先关掉,重新打开一个),输入刚才复制好的指令,按回车。安装成功后,回到Docker。

5.在Docker上运行deepseek

重新打开一个Terminal命令行终端,启动装好的ollama,输入ollama run deepseek-r1:7b,

保持命令行窗口开启,不要关闭,然后回到Docker,点击Docker桌面端的这个位置。

首次使用,会有下面这个页面出现,点击开始使用即可。

然后,使用之前在Docker注册号的账号、密码登录即可。

好了,这样就可以跟deepseek对话啦。

方式二、远程API访问deepseek

这种大模型平台部署的deepseek版本都是大体量、高版本、满血版的,有专门的硬件来支持运行,不需要我们自己安装部署,我们相当于在别人部署好的平台上进行访问,一般新用户都会有免费额度,以“硅基流动”为例子。硅基流动(SiliconFlow)是一个与人工智能大模型相关的平台,专注于为开发者提供便捷的人工智能大模型接入和使用服务。它支持包括 DeepSeek-R1 等在内的多种大模型,旨在降低开发者在使用大模型过程中的技术门槛和对接成本。

1.我们使用 Cherry Studio客户端来访问,这是一款功能强大的 AI 桌面客户端,下载地址

2.到硅基流动官网进行注册账号并登录,新用户会赠送 2000 万 Token 免费额度,注册地址。登录进去后,新建API密钥,然后点击复制。

3.找到硅基流动,开启,输入刚才复制的密钥,点击检查,选择 DeepSeek-R1模型,完成后,即可对话了。

4.输入聊天内容,即可对话。这是Deepseek- R1满血版,相比本地部署,速度、性能、处理逻辑好很多,缺点就是免费额度用完需要收费。本地部署缺点就是硬件要求不够,优点就是免费。当然,有钱又有硬件条件的可以在本地或买个服务器部署满血版的Deepseek- R1。

好了,以上就是使用Deepseek- R1的两种方式,欢迎大家留言交流~

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容