Windows 下零基础 DeepSeek 本地部署与知识库搭建保姆级教程

AI使用2025-02-19 23:31:20

还在为隐私泄露担忧?还在受限于网络环境?想拥有一个完全属于自己的 AI 助手? 本文将手把手教你如何在 Windows 系统下零基础部署 DeepSeek - R1 8b 模型,并搭建本地知识库,让你拥有一个安全、离线、强大的 AI 伙伴!

一、本地部署 DeepSeek 的优势

将 DeepSeek 模型部署在本地,并搭建本地知识库,相比于使用在线 AI 服务,具有以下显著优势:

  • 隐私保护:所有数据都保存在本地,无需上传至云端,避免敏感信息泄露的风险。
  • 离线使用:即使没有网络连接,也能正常使用 AI 功能,随时随地获取知识。
  • 个性化定制:可以根据自己的需求定制知识库,训练专属领域的 AI 助手。
  • 响应速度快:本地计算速度更快,响应更及时。
  • 工作学习效率提升:无需依赖网络,随时查阅资料,辅助学习和工作。
  • 代码开发利器:快速查询代码片段,调试问题,提升开发效率。

二、准备工作

开始之前,请确保你的 Windows 系统满足以下最低配置:

  • 操作系统:Windows 10 或更高版本
  • CPU:至少 4 核
  • 内存:至少 16GB (建议 32GB 或更高以获得更好的性能)
  • 硬盘:至少 50GB 可用空间

温馨提示:内存越大,模型运行越流畅。建议根据自身需求选择合适的硬件配置。

三、安装 Ollama:DeepSeek 的运行引擎

Ollama 是一个开源的大语言模型运行框架,它可以方便地在本地运行各种大模型,包括 DeepSeek - R1 8b。安装 Ollama 非常简单:

3.1 下载 Ollama

访问 Ollama 官网,点击 "Download for Windows" 下载安装包。

3.2 安装 Ollama

  1. 双击下载的安装包 OllamaSetup.exe,运行安装程序。
  2. 按照提示一步步操作,选择安装路径 (建议使用默认路径)。
  3. 勾选 "Add Ollama to PATH" 选项,以便在命令行中使用 Ollama。
  4. 点击 "Install" 开始安装。
  5. 安装完成后,点击 "Finish" 关闭安装程序。

3.3 验证 Ollama 安装

打开命令提示符 (CMD) 或 PowerShell,输入以下命令:

ollama --version

如果成功显示 Ollama 的版本号,则说明 Ollama 安装成功。

四、部署 DeepSeek - R1 8b 模型

Ollama 安装完成后,就可以轻松部署 DeepSeek - R1 8b 模型了。只需一条命令:

ollama pull deepseek-ai/deepseek-coder:6.7b-base

在命令提示符 (CMD) 或 PowerShell 中运行该命令,Ollama 会自动下载并安装 DeepSeek - R1 8b 模型。下载过程可能需要一段时间,取决于你的网络速度。

温馨提示: deepseek-ai/deepseek-coder:6.7b-base 是模型的名称和标签,可以在 Ollama 官网或 Hugging Face 找到更多模型。

五、下载和安装 shaw/dmeta-embedding-zh 模型

shaw/dmeta-embedding-zh 模型是一个专门针对中文文本的嵌入模型,可以将中文文本转换为向量表示,用于语义搜索和知识库检索。它基于 transformer 架构,通过大量的中文语料训练而成,能够准确捕捉中文文本的语义信息。

5.1 shaw/dmeta-embedding-zh 模型原理简述

该模型的核心在于将每个中文词语或句子映射到一个高维向量空间中,使得语义相似的词语或句子在向量空间中的距离更近。当用户输入搜索query时,该模型会将query转换成向量,然后在知识库中找到与query向量距离最近的文档向量,从而实现语义搜索。

5.2 下载 shaw/dmeta-embedding-zh 模型

由于 shaw/dmeta-embedding-zh 模型通常不会直接以 Ollama 模型的形式存在,你需要手动下载模型文件。可以从 Hugging Face 找到该模型:shaw/dmeta-embedding-zh。

你需要下载以下几个关键文件:

  • config.json: 模型配置文件
  • pytorch_model.bin: 模型权重文件
  • sentence_transformers.json: SentenceTransformer配置文件
  • vocab.txt, tokenizer_config.json, special_tokens_map.json: tokenizer 相关文件

将下载好的文件保存在一个目录下,例如 C:\models\dmeta-embedding-zh。确保所有的文件都在该目录下。

5.3 安装 Sentence Transformers 库

使用 shaw/dmeta-embedding-zh 模型需要安装 sentence-transformers Python 库。打开命令提示符 (CMD) 或 PowerShell,输入以下命令:

pip install sentence-transformers

确保你的 Python 环境已经配置好,并且 pip 命令可用。

六、安装 Cherry Studio:搭建本地知识库

Cherry Studio 是一款易于使用的本地知识库搭建工具,它可以帮助你快速搭建基于 DeepSeek 模型的本地知识库。它支持多种文档格式,并提供了友好的用户界面。

6.1 下载 Cherry Studio

访问 Cherry Studio GitHub 仓库,下载最新版本的安装包 (Windows 版本)。

6.2 安装 Cherry Studio

  1. 双击下载的安装包,运行安装程序。
  2. 按照提示一步步操作,选择安装路径 (建议使用默认路径)。
  3. 点击 "Install" 开始安装。
  4. 安装完成后,点击 "Finish" 关闭安装程序。

七、配置 Cherry Studio 并搭建知识库

7.1 启动 Cherry Studio

双击桌面上的 Cherry Studio 图标,启动应用程序。

7.2 创建新的知识库

  1. 点击 "Create New Knowledge Base" 按钮。
  2. 输入知识库的名称 (例如 "我的知识库") 和描述。
  3. 选择知识库的存储路径 (建议使用默认路径)。
  4. 点击 "Create" 创建知识库。

7.3 配置模型

  1. 进入知识库设置界面。
  2. 选择 "Model Settings" 选项卡。
  3. 在 "LLM Model" 下拉菜单中选择 "Ollama"。
  4. 在 "Ollama Model" 文本框中输入 "deepseek-ai/deepseek-coder:6.7b-base" 。
  5. 在 "Embedding Model" 下拉菜单中选择 "Custom Model"。
  6. 在 "Model Path" 文本框中输入 C:\models\dmeta-embedding-zh (你保存 shaw/dmeta-embedding-zh 模型的目录)。
  7. 保存设置。

7.4 导入文档

  1. 进入知识库内容管理界面。
  2. 点击 "Import Documents" 按钮。
  3. 选择要导入的文档 (支持 TXT, PDF, Markdown 等格式)。
  4. 点击 "Import" 开始导入文档。

Cherry Studio 会自动将文档分割成小段落,并使用 shaw/dmeta-embedding-zh 模型计算每个段落的向量表示,然后存储在知识库中。

7.5 使用知识库

  1. 在 Cherry Studio 的搜索框中输入你的问题或关键词。
  2. 点击 "Search" 按钮。
  3. Cherry Studio 会根据你的问题在知识库中搜索相关的段落,并使用 DeepSeek 模型生成答案。

八、总结

恭喜你!你已经成功在 Windows 系统下部署了 DeepSeek - R1 8b 模型,并搭建了本地知识库。现在,你可以尽情享受离线、安全、个性化的 AI 助手带来的便利。

希望本文对你有所帮助。如果你在部署过程中遇到任何问题,欢迎在评论区留言,我会尽力解答。