deepseek的本地部署、使用教程、基本玩法

前言

就在上个月,deepseek突然爆火,凭借着超高的理解能力和推理能力各方面都已经和Chat gpt不相上下

deepseek R1和chat gpt的区别.png

而且还是开源的至二月十日,已经有四十四家国产平台接入deep seat。那么现在对于deep seat最大的问题就是不断的服务器繁忙

deepseek现状

请稍后再试。那么这章就是、本地部署、使用教程、玩法。那么,开造!

本地部署

下载ollama

首先打开ollama【点击打开】的官网

ollama官网

点击download,点击download for window,下载过程会有点慢。

Install

下载后打开ollama,点击install就会安装。

部署deepseek

安装完后会有一个通知,点击就会来到命令行,输入ollama回车,出现一堆字符就是安装成功。然后回到ollama官网,返回到主页,点击deep seekR1,4G显存以下选择一点五b,8G选择7b或8b,12G到16G选择14b,24G选择32b

模型选择

不知道显存是多少,可以按Esc加shift加ctrl打开任务管理器,选择第二个下滑,找到GPU,专用GPU内存就是显存,然后根据自己的显存选择,点击复制,粘贴进命令行即可。

如果速度在后期变得很慢,可以按ctrl加c停止下载,再粘贴下载命令,回车即可,如果还是这样,可以多试几次就行了。

看到“Send a message (/? for help)”就证明安装好了,然后用小学生方法打开cmd(这个我不用讲了吧),输入拉ollama list即可查看已安装的模型name就是模型名称,其他不用管,再次输入安装命令即可启动模型。看到这些就是启动成功。

使用教程

在谷歌(edge也一样)扩展搜索Page Assist添加扩展天下,然后点击扩展,点击Page Assist,把模型改成已部署的模型,再去设置,把语言改成简体中文,edge同理。

玩法

玩法一:

对于deepseek非常强的理解能力,不需要用花言巧语来装扮问题,直接用跟熟人说话的语气即可。我就随便问一句

(我不想放图了,看到这里不去试试吗?)

当然可以打开联网搜索来弥补底显存模型的智商空缺过程会有点慢,需要耐心等待。ok写完了,这个内容还算满意,毕竟出来的内容和速度是与显存有关,8G显存能这样已经不错了。

玩法二:

如果deepseek写出来的东西听不懂,可以告诉deepseek说人话。比如问dlss是什么?告诉deepseek说人话

(我又不想放图了…)

这样就可以让deepseek写出来的更通俗易懂。

写在最后

但其实对于配置不好的哥们生成出来的跟智障一样。所以我个人推荐显存,没有八g的最好直接用官方网站服务器繁忙等攻击结束就行了。