Deepseek 来自国产大模型公司深度求索,深度求索是量化巨头幻方量化旗下的大模型公司。2025 年 1 月 20 日,该公司正式发布推理大模型 DeepSeek-R1。
平台提供了多种 Deepseek 的使用方式,包括命令行交互、webui 交互、api 调用等。平台还提供了 DeepSeek-R1 及其它常用的几十款模型,用户可以直接使用。如果用户没有平台作业提交的经验,可以先查看帮助中心 - 作业系统部分,了解作业提交的基本概念和操作方法。
salloc -p gpu --gres=gpu:1 -n 8
该命令用于指定 gpu 分区,申请 1 张 gpu 卡、8 个 cpu 核心。
export OLLAMA_MODELS="/opt/app/ollama/0.5.7/models"
export PATH=$PATH:/opt/app/ollama/0.5.7/bin
ollama serve
命令说明:OLLAMA_MODELS 指的是 ollama 模型存放的路径,如果不指定该环境,则下载模型时会在个人目录下自动生成目录.ollama,并将模型存放在该目录下。
export PATH=$PATH:/opt/app/ollama/0.5.7/bin
ollama run deepseek-r1:14b
命令说明:用户可以通过ollama list命令查看当前环境有哪些模型。
sudo -i
source /opt/app/anaconda3/bin/activate open-webui
open-webui serve
出现相关启动成功提示(如INFO: Started server process [523] INFO: INFO: INFO: Waiting for application startup. Application startup complete. Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit))后,查看实例的 webui 地址,并将该地址复制到浏览器中打开,初次运行时,加载时间较长。
页面顺利加载后,需要先完成本地注册:在页面上填写名称、电子邮箱、密码,创建管理员账号。
注册并登陆后,即可选择相应模型,开始对话:选择deepseek-r1:7b等模型,即可在界面中开始对话交互。
在实例的详情页找到 ollma 的 api 服务地址:在个人实例的基本信息 - 服务板块中查找 api 地址。
将实例的 ollama api 服务地址配置到 Chatbox,并选择相应模型,并保存:
https://ollama.com/library/deepseek-r1
https://github.com/deepseek-ai/DeepSeek-R1