网站制做工具,百度权重查询入口,江苏短视频seo搜索,东昌府网站建设公司【清晰教程】通过Docker为本地DeepSeek-r1部署WebUI界面-CSDN博客 目录
Ollama
安装Ollama
DeepSeek-r1模型
安装DeepSeek-r1模型 Ollama
Ollama 是一个开源工具#xff0c;专注于简化大型语言模型#xff08;LLMs#xff09;的本地部署和管理。它允许用户在本地计算机… 【清晰教程】通过Docker为本地DeepSeek-r1部署WebUI界面-CSDN博客 目录
Ollama
安装Ollama
DeepSeek-r1模型
安装DeepSeek-r1模型 Ollama
Ollama 是一个开源工具专注于简化大型语言模型LLMs的本地部署和管理。它允许用户在本地计算机上运行各种 AI 大模型如 Llama、DeepSeek、Mistral 等而无需依赖云服务。
Ollama 支持多种操作系统包括 macOS、Linux 和 Windows。安装方式因系统而异例如在 macOS 上可以通过 Homebrew 安装。基于Ollama用户可以通过命令行工具或 Web 界面调用模型。能够实现本地部署、模型管理、API支持等功能。 本地部署支持在本地计算机上运行大型语言模型确保数据隐私和低延迟。 模型管理轻松下载、更新和删除模型。 跨平台支持兼容 macOS、Linux 和 Windows。 API 支持提供 RESTful API方便与其他应用程序集成。 社区驱动开源项目拥有活跃的社区支持。 安装Ollama
访问Ollama官网的下载页面
Download Ollama on Windowshttps://ollama.com/download
选择适配操作系统的客户端单击下载 如下载速度偏慢可考虑科学上网 下载完成后双击打开OllamaSetup
点击Install安装 Ollama默认安装在C盘需要2G以上存储空间 安装完成后通过命令行检查Ollama的安装情况 也可通过WinR在运行框中键入cmd进入命令行 在命令行中键入ollama显示以下信息即为安装成功 ollama 安装完成后Ollama 会在后台自动运行默认端口是 11434 DeepSeek-r1模型 访问Ollama官网的模型页面
Ollamahttps://ollama.com/search
选择所需模型这里选用DeepSeek-r1
在DeepSeek-r1的详细页面包含各种量级的模型以及对应的模型下载命令
这里作为演示选用最小的1.5b-DeepSeek-r1 下载命令为 ollama run deepseek-r1:1.5b 安装DeepSeek-r1模型
复制对应模型的下载命令 ollama run deepseek-r1:1.5b 进入命令行 也可通过WinR在运行框中键入cmd进入命令行
键入对应模型的下载命令
下载完成后即可直接使用模型进行交互
至此便已经完成DeepSeek-r1的本地部署。如需GUI界面可通过Docker部署适配的WebUI。【清晰教程】通过Docker为本地DeepSeek-r1部署WebUI界面-CSDN博客