用kubernetes部署deepseek
建议用阿里云GPU服务器(冲个几十块钱玩两天释放掉),当然本机的CPU虚拟机也可以搭建,运行卡顿,效果比较差
1. 用OLLMA / LLMA 方案
以olama为例:
下载安装
1 | # https://github.com/ollama/ollama/blob/main/docs/linux.md |
创建 Ollama 专用用户:
useradd ollama
创建 Ollama 模型存储目录:
1 | # mkdir /data/ollama/models |
创建 Ollama 启动 Service:
1 | # cat /etc/systemd/system/ollama.service |
启动 Ollama 服务:
1 | # systemctl daemon-reload |
查看启动状态:
systemctl status ollama
端口测试
curl 127.0.0.1:11434
下载模型(选择最小的7b,不过数据较少优点智障)
1 |
|
启动模型
ollama run deepseek-r1:7b
访问大模型
1 | curl http://127.0.0.1:11434/v1/chat/completions -H "Content-Type: |
ollama WebUi
1 | mkdir -p /data/ollama/webui |
访问主机:3000端口,具体web操作这里不做介绍
常用命令几乎和 docker 一样
1 | ollama pull deepseek-r1:1.5b |
使用其它接口
OLLAMA_HOST=0.0.0.0:11435 ollama serve
Ollama 常用环境变量:
1 |
|
1 | CPG的限制 |
kubernetes 部署deepseek
首先要部署kubernetes集群,这里我不做介绍,参见http://www.charon193.com/2023/06/02/k8s1.28/
GPU Operator 部署
helm安装
官方安装文档:https://helm.sh/docs/intro/install/
Helm 安装包:https://github.com/helm/helm/releases
1 |
|
部署 GPU Operator
添加仓库
1 | # helm repo add nvidia https://helm.ngc.nvidia.com/nvidia \ |
下载安装包
1 | # helm pull nvidia/gpu-operator |
1 | # helm install gpu-operator -n gpu-operator --create-namespace . |
查看pod状态
1 | kubectl get po -n gpu-operator |
创建 GPU 测试服务
vim test.yaml
1 |
|
1 | kubectl create -f test.yaml |
Local Path Storage 部署:
1 | kubectl create -f localpath.yaml |
// 创建 PVC 测试:
vim pvc-test.yaml
1 | apiVersion: v1 |
创建 Pod:cat pod.yaml
1 | apiVersion: v1 |
查看 Pod 和 PVC
1 | # kubectl get po volume-test |
Ollama Operator 部署
官网:https://ollama-operator.ayaka.io/
首先部署 Ollama Operator:
kubectl create -f install.yaml
查看部署状态:
1 | # kubectl get po -n ollama-operator-system |
客户端工具下载:https://github.com/nekomeowww/ollama-operator/releases/
下载后上传至服务,然后解压即可:
1 | # ./kollama --help |
K8s 部署大模型
在 K8s 上部署大模型,可以直接用 Ollama Operator 的 CRD Model 部署,比如部署一个 deepseek-r1
的模型:
cat phi.yaml
1 | apiVersion: ollama.ayaka.io/v1 |
kubectl create -f phi.yaml
它会创建一个 ollama 服务
1 | kubectl get po -n ollama-llms |
测试:
1 | # curl http://192.168.116.100:11434/v1/chat/completions \ |
使用 Kollama 在 K8s 部署大模型
除了使用自定义资源部署,还可以使用 Kollama 工具进行部署。
1 | ./kollama deploy phi --image=phi --storage-class local-path -n ollama-llms |
测试:
1 | curl http://192.168.181.134:32678/v1/chat/completions -H "Content-Type: |
./kollama undeploy phi -n ollama-llms
在 K8s 一键部署 Deepseek R1 模型
cat deepseek-r1-1.5b.yaml
1 | apiVersion: ollama.ayaka.io/v1 |
创建模型:
1 | kubectl create -f deepseek-r1-1.5b.yaml -n ollama-llms |
测试:
1 | # curl http://192.168.160.8:11434/v1/chat/completions -H "Content-Type: |
- 本文作者: 东方觉主
- 本文链接: http://www.charon193.com/2025/04/12/olamak8s/
- 版权声明: 本博客所有文章除特别声明外,均采用 MIT 许可协议。转载请注明出处!