本文主要是介绍在VSCode中本地运行DeepSeek的流程步骤,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
《在VSCode中本地运行DeepSeek的流程步骤》本文详细介绍了如何在本地VSCode中安装和配置Ollama和CodeGPT,以使用DeepSeek进行AI编码辅助,无需依赖云服务,需要的朋友可...
本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。&nbsChina编程p;
步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT
要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。
安装Ollama
Ollama 是一个轻量级平台,可以轻松运行本地 LLM。
下载Ollama
访问官方网站:https://ollama.com
ollama --version
如果 Ollama 安装正确,它将显示已安装的版本。
在 Visual Studio Code 中安装 CodeGPT
打开 VSCode并导航到扩展市场(Ctrl + Shift + X 或 macOS 上为 Cmd + Shift + X)。
搜索“CodeGPT”并点击安装。
或者您可以在此处创建一个免费帐户:https://codegpt.co
安装 Ollama 和 CodeGPT 后,我们现在可以下载并配置 DeepSeek 以开始在本地使用 AI 进行编码。
步骤 2:下载并设置模型
现在您已经成功安装了 Ollama 和 CodeGPT,现在是时候下载您将在本地使用的模型了。
- 聊天模型:deepseek-r1:1.5b,针对较小的环境进行了优化,可以在大多数计算机上顺利运行。
- 自动补全模型:deepseek-coder:1.3b。该模型利用中间填充 (FIM)技术,可以在您编写代码时提供智能自动补全建议。它可以预测并建议函数或方法的中间部分,而不仅仅是开头或结尾。
下载聊天模型 (de编程China编程epseek-r1:1.5b)
要开始使用聊天模型:
- 在VSCode中打开CodeGPT。
- 导航到侧边栏中的“本地 LLM”部分。
- 从可用选项中,选择Ollama作为本地 LLM 提供商。
- 选择模型deepseek-r1:1.5b。
- 点击下载按钮。模型将自动开始下载。
下载完成后,CodeGPT 将自动安装模型。安装完成后,您就可以开始与模型进行交互了。
现在,您可以轻松地查询有关代码的模型。只需在编辑器中突出显示任何代码,使用#符号将额外编程文件添加到查询中,然后利用强大的命令快捷方式,例如:
/fix — 用于修复错误或建议改进代码。
/refactor — 用于清理和改进代码结构。
/Explain — 获取任何一段代码的详细解释。
这种聊天模型非常适合帮助解决特定问题或获取有关代码的建议。
下载自动完成模型 (deepseek-coder:base)
为了增强代码自动完成功能:
在 VSCode 中打开终端。
运行以下命令来提取deepseek-coder:base模型:
ollama pull deepseek-coder:base
此命令将自动完成模型下载到您的本地机器。
下载完成后,返回CodeGPT并导航到自动完成模型部分。
从可用模型列表中选择deepseek-coder:base 。
选择后,您就可以开始编码。在您输入时,模型将开始提供实时代码建议,帮助您轻松完成函数、方法甚至整个代码块。
步骤 3:享受无缝本地和私人人工智能编码
设置模型后,您现在可以享受使用这些强大工具的全部好处,而无需依赖外部 API。通过在您的机器上本地运行所有内容,您可以确保完全的隐私和对编码环境的控制。无需担心数据离开您的计算机,一切都保持安全和私密。
以上就是在VSpythonCode中本地运行DeepSeek的流程步骤的详细内容,更多关于VSCode本地运行DeepSeek的资料请关注China编程(www.chinasem.cn)其它相关文章!
这篇关于在VSCode中本地运行DeepSeek的流程步骤的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!