hongkongdoll videos 白嫖deepseek土产货部署教程,转发+储藏送deepseek使用妙技
发布日期:2025-07-04 00:32 点击次数:81
hongkongdoll videoshongkongdoll videos
💬本教程所用到的软件包+deepseek使用妙技资源包得回表情:
一、部署Ollama(多平台选拔装置)
Ollama 支撑 Linux/macOS/Windows,需笔据系统选拔装置表情。
1. Linux 系统部署适用系统:Ubuntu/Debian/CentOS 等
法子:
一键装置:
curl -fsSL https://ollama.com/install.sh | sh
权限确立(幸免 sudo 运行):
sudo usermod -aG ollama $USER # 将现时用户加入ollama组newgrp ollama # 刷新用户组
启动处事:
systemctl start ollama # 启动处事systemctl enable ollama # 开机自启
考据装置:
ollama --version # 输出书本号即奏凯2. macOS 系统部署
法子:
一键装置:
curl -fsSL https://ollama.com/install.sh | sh
启动处事:
ollama serve # 前台运行(调试用)
或通过 Launchd 后台处事:
brew services start ollama # 通过Homebrew贬责
小马大车3. Windows 系统部署
前置条目:
Windows 10/11 64位
已装置 WSL2(推选Ubuntu刊行版)
法子:
下载装置包:Ollama Windows Installer
下载后进行双击装置
考据装置:
ollama list # 检察已装置模子
图片
💬如何确立而已 Ollama 处事?
默许情况下,Ollama 处事仅在土产货运行,分辨外提供处事。要使 Ollama 处事大约对外提供处事,你需要建造以下两个环境变量:
要是 Ollama 手脚 systemd 处事运行,应使用 systemctl 建造环境变量:
调用 systemctl edit ollama.service 裁剪 systemd 处事确立。这将大开一个裁剪器。
在 [Service] 部分下为每个环境变量添加一滑 Environment:
[Service]Environment="OLLAMA_HOST=0.0.0.0"Environment="OLLAMA_ORIGINS=*"
再行加载 systemd 并重启 Ollama:
systemctl daemon-reloadsystemctl restart ollama二、拉取并运行DeepSeek模子
官方模子库参考:Ollama DeepSeek-R1 页面
图片
1. 拉取模子ollama pull deepseek-r1 # 官方推选模子称号
模子规格选项(按需选拔):
ollama pull deepseek-r1:7b # 7B参数基础版ollama pull deepseek-r1:33b # 33B参数进阶版(需更高显存)
图片
2. 运行模子ollama run deepseek-r1
考据交互:
>>> 你好,请用华文恢复你好!我是DeepSeek-R1,很怡悦为您提供匡助!
三、不同硬件场景确立讲解
笔据硬件资源选拔运行花样:
场景1:纯CPU运行适用情况:无零丁显卡或显存不及
确立优化:
放手线程数(幸免资源破费):
OLLAMA_NUM_THREADS=4 ollama run deepseek-r1 # 放手4线程
使用量化模子(减少内存占用):
ollama pull deepseek-r1:7b-q4_0 # 4-bit量化版
内存条目:
7B模子:至少8GB怡然内存
33B模子:至少32GB怡然内存
场景2:CPU+GPU羼杂运行
适用情况:有NVIDIA显卡(需CUDA支撑)
确立法子:
装置驱动:
装置 NVIDIA驱动 和 CUDA Toolkit 12.x
启用GPU加快:
ollama run deepseek-r1 --gpu # 强制使用GPU
显存条目:
7B模子:至少6GB显存
33B模子:至少20GB显存
性能监控:
nvidia-smi # 检察GPU诈欺率
四、AI问领路用接入土产货大模子表情1:部署MaxKB并接入Ollama
图片
1. 通过Docker部署MaxKBdocker run -d \ --name=maxkb \ -p 8080:8080 \ -v ~/maxkb_data:/var/lib/postgresql/data \ 1panel/maxkb:latest
拜谒 http://localhost:8080,默许账号密码 admin/MaxKB@123..
2. 确立Ollama模子接入
干预MaxKB鸿沟台:模子贬责 > 添加模子
填写参数:
模子类型:Ollama
模子称号:DeepSeek-r1
Base URL:http://ollama主机ip:11434(Docker内拜谒宿主机)
模子称号:deepseek-r1(与Ollama拉取的模子名一致)
图片
3. 创建应用并测试问答功能图片
图片
表情2:土产货装置chatBox AI并接入土产货大模子1、下载装置包拜谒 GitHub Releases 页面:ChatBox Releases!ChatBox Releases页面
选拔 Windows 版块:
2、装置 ChatBox运行装置法子:
双击下载的 .exe 文献,按教唆完成装置。
3、基础确立3.1. 贯穿 土产货模子确保 Ollama 处事已运行。
在 ChatBox 建造中选拔 **ollama api**,填写:
API Endpoint: http://localhost:11434
API Key: 留空
Model Name: deepseek-r1(与 Ollama 模子称号一致)
图片
图片
3.2 不错自界说界面图片
3.3 考据使用图片
五、常用的故障排查方法1. Ollama处事无法启动
日记检察:
journalctl -u ollama -f # Linux
端口打破:修改Ollama端口:
OLLAMA_HOST=0.0.0.0:11435 ollama serve # 指定新端口
2. 模子加载失败
再行驱动化:
ollama rm deepseek-r1 && ollama pull deepseek-r1
3. MaxKB贯穿超时
搜检采集:
curl http://ollama-ip:11434 # 说明Ollama API可达
跨域问题:在Ollama启动时添加:
OLLAMA_ORIGINS="*" ollama serve
六、性能优化提倡场景推选确立CPU花样使用GPU花样启用七、AI处事器性能监控
我使用zabbix+grafana对处事器作念了资源使用情况的监控,因为我的处事器莫得GPU,一起使用CPU去跑,当我运行大模子的工夫,不错看到处事器资源站哟相比高(现在我测试用的的Deepseek-r1:7b)
图片
图片
图片
最近一年著作更新基本莫得什么收益,今天最先每篇著作后头会给大家挂几个小游戏,大家看完著作铭刻玩两把再退出去,感谢!同期文中也有一些视频告白,大家也帮衬点开望望,望望即可,不消深度参与。 本站仅提供存储处事,通盘践诺均由用户发布,如发现存害或侵权践诺,请点击举报。