安装必要的依赖
多 GPU 配置需要安装额外的依赖项,例如 CUDA 和 cuDNN。请参考 NVIDIA 官方文档进行安装。
配置 Ollama 平台
编辑 Ollama 平台的配置文件,启用多 GPU 支持。具体的配置方法请参考 Ollama 平台的官方文档,其中proxmox lxc docker 是一种可选的安装方式。
您也可以在Digital Spaceport找到对应的视频和文章,并参考其网站digitalsport.com安装everything for setting up a Proxmox LXC docker.
运行 QWQ 32B 模型
配置完成后,您可以使用以下命令来运行 QWQ 32B 模型:
ollama run --gpus all qwq:32b
这将使 Ollama 平台能够利用所有可用的 GPU 来加速推理。
验证多 GPU 配置
为了验证多 GPU 配置是否生效,您可以使用 nvidia-smi
命令来查看 GPU 的利用率。如果多个 GPU 都处于高负荷状态,那么恭喜您,您已经成功配置了多 GPU 支持!