DeepSeek 的系统要求和设置

2025 年 5 月 15 日 | 阅读 5 分钟

引言

DeepSeek 是一个开源 AI 模型,它结合了非常先进的语言模型,具有高效率,可用于研究目的并处理不同的自然语言处理任务。DeepSeek 为构建高效的聊天机器人、分析工具或微调大型语言模型提供了一个很好的框架。但在深入了解 DeepSeek 模型之前,您需要首先了解在您的系统上设置 DeepSeek 的系统要求,以及正确设置它的过程。

本教程将概述设置 DeepSeek 模型所需的系统要求(如硬件和软件),以及高效设置 DeepSeek 的整个过程。

系统要求

集成 DeepSeek 的最低系统要求取决于 DeepSeek 的使用情况。使用情况基本上有两种类型:推理和训练。

a. 推理的系统要求

DeepSeek 用于总结和聊天机器人对话等目的;这些是预先训练好的模型。在这里,系统要求相对适中。

System Requirements & Setup for DeepSeek

b. 硬件要求

  1. CPU 必须具有 4 核处理器(如 Ryzen 5 或 Intel i5)。
  2. 存储空间应至少有 20 GB 的可用空间。
  3. RAM 大小应至少为 8GB。
  4. 添加 GPU 是可选的,但如果添加,则我们需要一个 NVIDIA GPU,至少有 4 GB 的 VRAM。

c. 软件要求

System Requirements & Setup for DeepSeek
  1. 操作系统 必须是 Windows 10/11 或 macOS 12+。
  2. 您应该使用 3.8 到 3.11 版本的 Python 软件。
  3. 此外,虚拟环境工具是 venv 和 Conda。
  4. 库,例如 Transformer、deepseek、numpyPandas

d. 训练或微调的系统要求

在这里,DeepSeek 在大型数据集上训练模型,为此,我们需要更强大的系统。

System Requirements & Setup for DeepSeek

硬件要求

  • 必须至少有 8 核或更高的 CPU,例如 Intel i7 或 Ryzen 7。
  • RAM 应该为 32GB 或更多。
  • 对于存储,您将需要至少 100 GB 的 SSD 或更多。
  • GPU 必须是 NVIDIA RTX 3080 或 3090,或至少 12 GB VRAM。

软件需求

  • 根据您使用的 PyTorch 版本,您将使用 CUDA 11.7 或 12.1。
  • 它通过 pip 或 conda 安装在 PyTorch(GPU 版本)中。
  • nvidia-smi 用于 GPU 监控,Jupyter Notebook 可选用于实验。

安装过程

DeepSeek 的安装过程总共涉及 4 个基本步骤。这些步骤包括

步骤 1:设置 Python 环境

当您使用大型框架时,隔离我们的依赖项非常重要,创建一个虚拟环境将有助于分隔它们。

对于 venv

对于 conda:

步骤 2:PyTorch 安装

根据您的系统安装适当的版本,即您有一个 GPU 或仅 CPU 系统,这非常重要。

对于 CPU 版本

对于 GPU 版本

步骤 3:安装 DeepSeek 和依赖项

到目前为止,DeepSeek 的所有模型都托管在 Hugging Face 上。为了访问这些模型,您可以使用 datasetstransformers 库。

如果您使用 DeepSeek 专用软件包

步骤 4:验证 DeepSeek 的安装

为了验证 DeepSeek 的安装是否成功,只需运行一个简单的 Python 脚本

如果上述代码运行正确,没有任何错误,那么您的设置就完成了。

DeepSeek 模型的部署

一旦您的 DeepSeek 安装和设置过程完成,您就必须将其部署到生产环境中。为此,我们有两个选项:本地部署、云部署或 API 托管。

本地部署

对于这种类型的部署,您必须在实验室和办公室中使用非常强大的 GPU 服务器。为了成功进行本地部署,您必须确保有足够的电源供应,没有任何冗余,有计划的备份,并有适当的冷却机制。

云部署

GCP、Azure 或 AWS 等平台为这些 DeepSeek 模型推理和训练提供 GPU 实例。

在 AWS EC2 上的示例

选择一个 g4dn.xlargep3.2xlarge 实例。

安装相同的环境

使用 tmuxscreen 管理后台会话。

API 托管

为了实现全球访问,您可以将您微调后的 DeepSeek 模型上传到 Hugging Face 的模型中心。

优化技巧

为了使模型在您的系统上高效运行,这需要定期优化。以下是一些优化技巧

  1. 如果您想减少内存负载,那么您可以使用 fp16bf16
  2. 为了获得简化的推理,您可以使用 pipeline().
  3. 启用内存高效的注意力(如果支持,例如 FlashAttention)
  4. 对于多 GPU 或混合精度训练,使用 accelerates.
  5. 对于训练极大型的模型,有效使用 DeepSpeed(开源深度学习优化库)。

常见问题及其解决方案

  1. 问题:未检测到 CUDA。
    解决方案:检查 torch.cuda.is_available() ;安装兼容的 CUDA + cuDNN 版本
  2. 问题:内存不足 (OOM) 错误
    解决方案:使用更小的批量大小或模型,升级 GPU
  3. 问题:“找不到名为 transformers 的模块。”
    解决方案:运行 pip install transformers
  4. 问题:CPU 上的推理速度慢
    解决方案:升级到 GPU 或使用 onnxtorch.compile() 进行优化
  5. 问题:权限错误 (Linux/macOS)
    解决方案:使用 sudo 或在用户可写目录中运行
  6. 问题:在 Hugging Face 上找不到模型
    解决方案:确保模型名称正确 (deepseek-ai/deepseek-llm-7b-base)

结论

为了充分利用 DeepSeek 模型,您必须首先设置 DeepSeek,并确保您的系统满足所有设置要求。这个过程可能看起来很复杂,但一旦完成,您可以执行各种工作,例如构建聊天机器人、进行研究或将其集成到应用程序中,从而确保更流畅的性能和可靠性。

通过遵循本教程中提供的所有步骤和信息,您可以轻松安装 DeepSeek,解决设置过程中出现的所有问题,并部署它。