要怎样建立自己的网站,坪山网站建设哪家便宜,中国工程建设招标网官方网站,深圳排名优化哪家专业目录 1.介绍
2.开始调用
2.1模型检验 2.2 通过url调用
3.总结 1.介绍
这篇博客用来教你如何从本地调用ollama中deepseek的模型接口#xff0c;直接和deepseek进行对话。
2.开始调用
2.1模型检验
首先要保证ollama已经安装到本地#xff0c;并且已经下载了deepseek模型…目录 1.介绍
2.开始调用
2.1模型检验 2.2 通过url调用
3.总结 1.介绍
这篇博客用来教你如何从本地调用ollama中deepseek的模型接口直接和deepseek进行对话。
2.开始调用
2.1模型检验
首先要保证ollama已经安装到本地并且已经下载了deepseek模型。可以使用下面的命令检验
ollama list2.2使用subprocess
使用subprocess直接与模型进行对话使用ollama命令中的pull或run选项来调用模型。
import subprocessdef ollama_deepseek_conversation(prompt):try:# 通过命令行使用 ollama run deepseek-r1:7b 模型注意这里的模型名字可以使用ollama list可以看见模型名字result subprocess.run([ollama, run, deepseek-r1:7b], inputprompt,stdoutsubprocess.PIPE, textTrue)# 获取模型响应并返回return result.stdout.strip()except Exception as e:return fError occurred: {e}if __name__ __main__:print(开始对话输入quit退出)while True:# 获取用户输入user_input input(你: )if user_input.lower() quit:print(对话结束)break# 调用deepseek模型获取响应response ollama_deepseek_conversation(user_input)print(fdeepseek: {response})2.2 通过url调用
1.创建一个本地的服务来将命令行调用转化为 REST API 请求
from flask import Flask, request, jsonify
import subprocessapp Flask(__name__)# 定义一个路由来处理POST请求
app.route(/deepseek, methods[POST])
def deepseek_conversation():data request.get_json() # 获取用户的 JSON 输入prompt data.get(prompt, ) # 从 JSON 中获取 prompttry:# 运行 ollama 命令并将用户输入传给 deepseek-r1:7bresult subprocess.run([ollama, run, deepseek-r1:7b], inputprompt,stdoutsubprocess.PIPE, textTrue)# 获取模型的响应response result.stdout.strip()return jsonify({response: response}) # 返回 JSON 格式的响应except Exception as e:return jsonify({error: str(e)}), 500 # 捕获错误并返回500状态码if __name__ __main__:app.run(host0.0.0.0, port5000) # 启动 Flask 服务监听5000端口2.使用 requests 库来向这个本地服务发送 HTTP 请求并获得 deepseek 模型的响应。
import requestsdef ollama_deepseek_conversation(prompt):try:url http://localhost:5000/deepseek # Flask API 地址response requests.post(url, json{prompt: prompt}) # 发送 POST 请求if response.status_code 200:return response.json().get(response, 无响应) # 解析返回的 JSON 数据else:return fError: {response.status_code} {response.text}except Exception as e:return fError occurred: {e}if __name__ __main__:print(开始对话输入quit退出)while True:user_input input(你: )if user_input.lower() quit:print(对话结束)break# 调用 deepseek 模型并获取响应response ollama_deepseek_conversation(user_input)print(fdeepseek: {response})3.总结
和deepseek对话可行的方式不仅仅只有命令窗口或webui等等还可以使用url调用这样一来你就可以使用一些硬件接入deepseek例如使用ESP32接入自己的本地deepseek制作一个本地聊天机器人)。
希望这一片博客可以为你的思路提供新的参考。