最近一年文章更新基本沒(méi)有什么收益,今天開始每篇文章后面會(huì)給大家掛幾個(gè)小游戲,大家看完文章記得玩兩把再退出去,感謝!同時(shí)文中也有一些視頻廣告,大家也幫忙點(diǎn)開看看,看看即可,不必深度參與。 ??本教程所用到的軟件包+deepseek使用技巧資源包獲取方式: 一、部署Ollama(多平臺(tái)選擇安裝)Ollama 支持 Linux/macOS/Windows,需根據(jù)系統(tǒng)選擇安裝方式?!?/p> 1. Linux 系統(tǒng)部署適用系統(tǒng):Ubuntu/Debian/CentOS 等 步驟: 一鍵安裝: curl -fsSL https:///install.sh | sh
權(quán)限配置(避免 sudo 運(yùn)行): sudo usermod -aG ollama $USER # 將當(dāng)前用戶加入ollama組 newgrp ollama # 刷新用戶組
啟動(dòng)服務(wù): systemctl start ollama # 啟動(dòng)服務(wù) systemctl enable ollama # 開機(jī)自啟
驗(yàn)證安裝: ollama --version # 輸出版本號(hào)即成功
2. macOS 系統(tǒng)部署步驟: 一鍵安裝: curl -fsSL https:///install.sh | sh
啟動(dòng)服務(wù): ollama serve # 前臺(tái)運(yùn)行(調(diào)試用)
3. Windows 系統(tǒng)部署前置要求: 步驟: 下載安裝包:Ollama Windows Installer 下載后進(jìn)行雙擊安裝 驗(yàn)證安裝:
??如何配置遠(yuǎn)程 Ollama 服務(wù)?默認(rèn)情況下,Ollama 服務(wù)僅在本地運(yùn)行,不對(duì)外提供服務(wù)。要使 Ollama 服務(wù)能夠?qū)ν馓峁┓?wù),你需要設(shè)置以下兩個(gè)環(huán)境變量: 如果 Ollama 作為 systemd 服務(wù)運(yùn)行,應(yīng)使用 systemctl 設(shè)置環(huán)境變量: [Service] Environment="OLLAMA_HOST=0.0.0.0" Environment="OLLAMA_ORIGINS=*"
systemctl daemon-reload systemctl restart ollama
二、拉取并運(yùn)行DeepSeek模型官方模型庫(kù)參考:Ollama DeepSeek-R1 頁(yè)面 1. 拉取模型ollama pull deepseek-r1 # 官方推薦模型名稱
2. 運(yùn)行模型驗(yàn)證交互: >>> 你好,請(qǐng)用中文回答 你好!我是DeepSeek-R1,很高興為您提供幫助!
三、不同硬件場(chǎng)景配置說(shuō)明根據(jù)硬件資源選擇運(yùn)行模式: 場(chǎng)景1:純CPU運(yùn)行適用情況:無(wú)獨(dú)立顯卡或顯存不足 配置優(yōu)化: 限制線程數(shù)(避免資源耗盡): OLLAMA_NUM_THREADS=4 ollama run deepseek-r1 # 限制4線程
使用量化模型(減少內(nèi)存占用): ollama pull deepseek-r1:7b-q4_0 # 4-bit量化版
內(nèi)存要求: 7B模型:至少8GB空閑內(nèi)存 33B模型:至少32GB空閑內(nèi)存
場(chǎng)景2:CPU+GPU混合運(yùn)行適用情況:有NVIDIA顯卡(需CUDA支持) 配置步驟: 安裝驅(qū)動(dòng): 啟用GPU加速: ollama run deepseek-r1 --gpu # 強(qiáng)制使用GPU
顯存要求: 7B模型:至少6GB顯存 33B模型:至少20GB顯存
性能監(jiān)控:
四、AI問(wèn)答應(yīng)用接入本地大模型方式1:部署MaxKB并接入Ollama1. 通過(guò)Docker部署MaxKBdocker run -d \ --name=maxkb \ -p 8080:8080 \ -v ~/maxkb_data:/var/lib/postgresql/data \ 1panel/maxkb:latest
2. 配置Ollama模型接入進(jìn)入MaxKB控制臺(tái):模型管理 > 添加模型 填寫參數(shù):
3. 創(chuàng)建應(yīng)用并測(cè)試問(wèn)答功能方式2:本地安裝chatBox AI并接入本地大模型1、下載安裝包訪問(wèn) GitHub Releases 頁(yè)面:ChatBox Releases!ChatBox Releases頁(yè)面 選擇 Windows 版本:
2、安裝 ChatBox運(yùn)行安裝程序:
3、基礎(chǔ)配置3.1. 連接 本地模型確保 Ollama 服務(wù)已運(yùn)行。 在 ChatBox 設(shè)置中選擇 **ollama api**,填寫:
3.2 可以自定義界面3.3 驗(yàn)證使用 五、常用的故障排查方法1. Ollama服務(wù)無(wú)法啟動(dòng)日志查看: journalctl -u ollama -f # Linux
端口沖突:修改Ollama端口: OLLAMA_HOST=0.0.0.0:11435 ollama serve # 指定新端口
2. 模型加載失敗重新初始化: ollama rm deepseek-r1 && ollama pull deepseek-r1
3. MaxKB連接超時(shí) 六、性能優(yōu)化建議場(chǎng)景 | 推薦配置 | CPU模式 | 使用 | GPU模式 | 啟用 |
七、AI服務(wù)器性能監(jiān)控我使用zabbix+grafana對(duì)服務(wù)器做了資源使用情況的監(jiān)控,因?yàn)槲业姆?wù)器沒(méi)有GPU,全部使用CPU去跑,當(dāng)我運(yùn)行大模型的時(shí)候,可以看到服務(wù)器資源站喲比較高(目前我測(cè)試用的的Deepseek-r1:7b) 最近一年文章更新基本沒(méi)有什么收益,今天開始每篇文章后面會(huì)給大家掛幾個(gè)小游戲,大家看完文章記得玩兩把再退出去,感謝!同時(shí)文中也有一些視頻廣告,大家也幫忙點(diǎn)開看看,看看即可,不必深度參與。
|