本地部署 DeepSeek-R1 大模型!本地访问免费开源,媲美OpenAI-4o!

最近,DeepSeek的初创公司发布了全新一代大模型,“DeepSeek-V3”,DeepSeek R1 更是直接免费开源。由于这款大模型太过好用,引发了网友的连连称赞。各项性能指标更是和OpenAI-o1 模型不相上下,甚至做到了小部分的超越,关键是开源的,我们可以本地部署使用

一、资源摘要:

本地部署,我们可以通过Ollama来进行安装

1.下载安装Ollama 官方版:

https://ollama.com/

2.通过Web UI 控制端使用模型 :

https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo

3.安装命令

(1)显存4G以下  1.5B Qwen DeepSeek R1

安装命令   ollama run deepseek-r1:1.5b

(2)显存8G    7B Qwen DeepSeek R1

安装命令   ollama run deepseek-r1:7b

(3)显存12G    8B Llama DeepSeek R1

安装命令  ollama run deepseek-r1:8b

(4)显存12G-24G   14B Qwen DeepSeek R1

安装命令  ollama run deepseek-r1:14b

(5)显存24G以上   32B Qwen DeepSeek R1

安装命令  ollama run deepseek-r1:32b

(6)显存48G及以上       70B Llama DeepSeek R1

安装命令    ollama run deepseek-r1:70b

二、安装教程

1.实现魔法上网,安装好chrom谷歌浏览器,并能打开google.cn (第1步网上自行操作)

2.下载ollama客户端并安装(共754.359M):网址  https://ollama.com/

3.ollama安装完成点击右下角弹出的页面“click here to get started”

 

4.进入ollama客户端

 

5.复制粘贴安装命令,回车(以我为例:我的4060显卡,显存8G  对应安装命令为:ollama run deepseek-r1:7b)

6.回车后自动安装

 

7.如图显示安装完成。(在这个界面就可以实现模型问答,但不方便,我们进一步安装网页端插件,通过网页访问)

 

8打开.Web UI 控制端网页 :

https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo

点击添加至chrom浏览器

 

9.在扩展处找到page assist本地AI

10.进入界面后,选择r1模型

 

11.点击右上角设置一下

 

12.返回网页端界面

13.即可正常使用(注意打开魔法上网)

三、获取帮助

青蛙能跳,却难跳出井底。因为向上的跳跃不可积累。要走出AI井底,就要学习蜗牛精神,积累硅步稳步向前,一定能爬出井口。

       (1)蜗牛AI落地1.0群

(群二维码2025年2月9日失效)

          (2)添加博主