本地部署DEEPSEEK大模型 和 知识库
1. 下载安装Ollama
2. 拉取大模型
Ollama 模型页面 https://ollama.com/search
拉取deepseek命令 ollama pull deepseek-r1:1.5b 或者ollama pull deepseek-r1:7b
拉取向量化模型命令 ollama pull nomic-embed-text #本地知识库用得到
3. ollama常用命令
ollama 列出命令详细
ollama list 查询已加载大模型
ollama serve 启动服务
Ollama rm 删除某个已下载的模型 ,比如 Ollama rm deepseek-r1:7b
运行已下载的大模型:
ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
4. 推荐的UI程序
- open webui #需要docker 搭建
- Page Assit #浏览器插件
- AnythingLLM #本地知识库方案之一
5.本地智能体和知识库
- AnythingLLM #windows运行首选
- Dify #智能体,本地知识库和自动化工作流方案(docker 搭建)
- N8N #智能体,本地知识库和自动化工作流方案(docker 搭建)
Docker run 安装open webui
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Docker compose 安装open webui,原版
services:
open-webui:
ports:
- 3000:8080
environment:
- OLLAMA_BASE_URL=https://example.com
volumes:
- open-webui:/app/backend/data
container_name: open-webui
restart: always
image: ghcr.io/open-webui/open-webui:main
Docker compose 安装open webui,修改后
services:
open-webui:
ports:
- 3311:8080
volumes:
- ./data:/app/backend/data
container_name: open-webui
restart: always
image: ghcr.nju.edu.cn/open-webui/open-webui:main
加速镜像:将ghcr.io替换为ghcr.nju.edu.cn
windows下修改环境变量
电脑属性--高级系统设置--环境变量--系统变量
OLLAMA_HOST, Variable value: 0.0.0.0:11434或者直接0.0.0.0
OLLAMA_MODELS 后面接路径
命令行运行大模型
ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
魔改版Ollama调用780M显卡
https://github.com/likelovewant/ollama-for-amd
百度网盘:(modify就是魔改版,另一个是官方版)
链接:https://pan.baidu.com/s/1ysXCiAto9eDEawcT2izXqg?pwd=1i24
提取码:1i24
文章评论