当前位置: 首页 > news >正文

为什么百度不收录我的网站做网站推广有哪些公司

为什么百度不收录我的网站,做网站推广有哪些公司,临汾网站建设 吕梁网站建设,抚州哪里有做企业网站的公司目录 简介安装前的准备下载ollama创建llamaindex conda环境#xff0c;为后面编码作准备 环境变量迁移ollama到其他盘运行ollama方式一方式二禁止ollama开机自启动运行第一个模型 Chatbox聊天下载Chatbox配置ollama地址和模型验证 建立自身特定知识数据搭配大语言模型创建项目… 目录 简介安装前的准备下载ollama创建llamaindex conda环境为后面编码作准备 环境变量迁移ollama到其他盘运行ollama方式一方式二禁止ollama开机自启动运行第一个模型 Chatbox聊天下载Chatbox配置ollama地址和模型验证 建立自身特定知识数据搭配大语言模型创建项目环境代码运行结果streamlit应用 本文所使用的源码地址参考 简介 ollama本地运行大型语言模型的工具软件。用户可以轻松下载、运行和管理各种开源 LLM。降低使用门槛用户能快速启动运行本地模型。LlamaIndex用来连接大语言模型和外部数据的框架(外部数据指自身领域的特定知识)它将两者结合起来提升回答的准确性。 安装前的准备 下载ollama ollama官方下载地址 https://ollama.com/download ,目前最新版是0.4.2。 创建llamaindex conda环境为后面编码作准备 为啥要用conda呢 后面要编码考虑不同项目依赖的python版本可能不同用conda来管理,可以快速新增python环境如果环境搞砸了用命令删除也很方便。 conda下载地址 https://www.anaconda.com/download/success 环境变量 参数标识与配置OLLAMA_MODELS表示模型文件的存放目录默认目录为当前用户目录即 C:\Users%username%.ollama\modelsWindows 系统 建议不要放在C盘可放在其他盘如 d:\software\ollama\modelsOLLAMA_HOST表示ollama 服务监听的网络地址默认为127.0.0.1 如果想要允许其他电脑访问 Ollama如局域网中的其他电脑建议设置成 0.0.0.0OLLAMA_PORT表示ollama 服务监听的默认端口默认为11434 如果端口有冲突可以修改设置成其他端口如8080等OLLAMA_ORIGINS表示HTTP 客户端的请求来源使用半角逗号分隔列表如果本地使用不受限制可以设置成星号 *OLLAMA_KEEP_ALIVE表示大模型加载到内存中后的存活时间默认为5m即 5 分钟如纯数字300 代表 300 秒0 代表处理请求响应后立即卸载模型任何负数则表示一直存活建议设置成 24h 即模型在内存中保持 24 小时提高访问速度OLLAMA_NUM_PARALLEL表示请求处理的并发数量默认为1 即单并发串行处理请求建议按照实际需求进行调整OLLAMA_MAX_QUEUE表示请求队列长度默认值为512 建议按照实际需求进行调整超过队列长度的请求会被抛弃OLLAMA_DEBUG表示输出 Debug 日志应用研发阶段可以设置成1 即输出详细日志信息便于排查问题OLLAMA_MAX_LOADED_MODELS表示最多同时加载到内存中模型的数量默认为1 即只能有 1 个模型在内存中 注意下OLLAMA_HOST好像会自动创建用户环境变量。本地直接用127.0.0.1。方便调试。 OLLAMA_MODELS环境建议配置一下默认是在C盘一个模型一般是几个G。比较占用空间。 迁移ollama到其他盘 由于ollama是直接安装在C盘C盘如果空间紧张可以像我一样迁移到D盘如果觉得没有必要可忽略此步骤。 方法就是在C盘创建软链接将真是数据放到D盘。 Administrator 是我的用户名 mklink /D C:\Users\Administrator\.ollama D:\software\Ollama\.ollama mklink /D C:\Users\Administrator\AppData\Local\Ollama D:\software\Ollama\log mklink /D C:\Users\Administrator\AppData\Local\Programs\Ollama D:\software\Ollama\app迁移后的结果 运行ollama 方式一 在程序栏中找到 点击就会运行。然后右下角会出现ollama的小图标。 方式二 在命令行中输入 ollama serve (我没有独显是以CPU方式运行的) 禁止ollama开机自启动 如果不想让ollama开机自启动打开任务管理器 到 启动 栏目选中右键 - 禁用止自启动。 运行第一个模型 打开https://ollama.com/ 网站在输入框中输入qwen。进入qwen2.5-coder,coder表示对编程方面的问题有优化。在详情页面可以看到各种版本tag。可以根据自身电脑配置情况使用哪一个。一般来说模型越大就越消耗资源。 我选择的是当前最新版本。运行的命令是。如何没有就会先下载。 ollama run qwen2.5-coder运行后的界面如下图所示。 然后我们输入一个问题验证是否成功。13.8与13.11哪个大 可以看出答案正确安装成功了。 Chatbox聊天 面对CMD的窗口聊天体验不太好所以我们用一下Chatbox软件。 下载Chatbox 下载地址 https://chatboxai.app/en 配置ollama地址和模型 第一个下拉框选择 ollama 下面的下拉框选地址和模型配置。 验证 我们输入一个问题验证是否成功。13.8与13.11哪个大 结果正确。 然后我们再试一个冷门问题介绍一下CSDN博主愤怒的苹果ext擅长什么 。 可以看出这个问题它是不知道的。 建立自身特定知识数据搭配大语言模型 一般对于模型不知道或不准确的回答有两种解决方案 1、模型微调。2、建立自身特定知识数据 大语言模型 对于要求准确度不是很高的场景一般会采用建立自身特定知识数据的方案。本文要实践的就是这种方案。 创建项目环境 利用conda创建 conda create -n llamaindex python3.10.13conda activate llamaindex# 安装依赖 pip install llama-index pip install llama-index-llms-ollama pip install llama-index-embeddings-ollama pip install llama-index-readers-file如果不知道怎么在pycharm中应用conda环境可以看我这篇文章 https://blog.csdn.net/baidu_19473529/article/details/143442416就不再赘述。 拉取嵌入模型. ollama pull quentinz/bge-small-zh-v1.5代码 test.py from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings from llama_index.llms.ollama import Ollama from llama_index.core.node_parser import SentenceSplitter import logging import sys# 增加日志信息 logging.basicConfig(streamsys.stdout, levellogging.DEBUG) logging.getLogger().addHandler(logging.StreamHandler(streamsys.stdout)) # 配置 嵌入模型/预训练这里我们用quentinz/bge-small-zh-v1.5 from llama_index.embeddings.ollama import OllamaEmbedding Settings.embed_model OllamaEmbedding(model_namequentinz/bge-small-zh-v1.5) # 配置ollama的LLM模型这里我们用qwen2.5-coder Settings.llm Ollama(modelqwen2.5-coder, request_timeout600.0)#特定知识数据 data_file [D:/work/self/Llamaindex-sample/data/a.txt] documents SimpleDirectoryReader(input_filesdata_file).load_data() index VectorStoreIndex.from_documents(documents, transformations[SentenceSplitter(chunk_size256)])query_engine index.as_query_engine(similarity_top_k5) response query_engine.query(介绍一下CSDN博主愤怒的苹果ext擅长什么) print(response) 特定知识数据内容 a.txt CSDN博主愤怒的苹果ext擅长Ai、Fw、Fl、Br、Ae、Pr、Id、Ps等软件的安装与卸载精通CSS、JavaScript、PHP、ASP、C、C、C#、Java、Ruby、Perl、Lisp、python、Objective-C、ActionScript、Pascal等单词的拼写熟悉Windows、Linux、Mac、Android、IOS、WP8等系统的开关机。运行结果 可以看出现在的运行结果基本上就是我们想要的结果了。 streamlit应用 通过硬编码的方式去问答没有图形化界面方便下面引入streamlit就能得到干净好看的Web问答界面了 命令行运行 pip install streamlit代码 app.py import streamlit as st from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings from llama_index.embeddings.ollama import OllamaEmbedding from llama_index.llms.ollama import Ollama from llama_index.core.memory import ChatMemoryBuffer import os import tempfile import hashlib# OLLAMA_NUM_PARALLEL同时处理单个模型的多个请求 # OLLAMA_MAX_LOADED_MODELS同时加载多个模型 os.environ[OLLAMA_NUM_PARALLEL] 2 os.environ[OLLAMA_MAX_LOADED_MODELS] 2# Function to handle file upload def handle_file_upload(uploaded_files):if uploaded_files:temp_dir tempfile.mkdtemp()for uploaded_file in uploaded_files:file_path os.path.join(temp_dir, uploaded_file.name)with open(file_path, wb) as f:f.write(uploaded_file.getvalue())return temp_dirreturn None# Function to calculate a hash for the uploaded files def get_files_hash(files):hash_md5 hashlib.md5()for file in files:file_bytes file.read()hash_md5.update(file_bytes)return hash_md5.hexdigest()# Function to prepare generation configuration def prepare_generation_config():with st.sidebar:st.sidebar.header(Parameters)max_length st.slider(Max Length, min_value8, max_value5080, value4056)temperature st.slider(Temperature, 0.0, 1.0, 0.7, step0.01)st.button(Clear Chat History, on_clickclear_chat_history)generation_config {num_ctx: max_length,temperature: temperature}return generation_config# Function to clear chat history def clear_chat_history():st.session_state.messages [{role: assistant, content: 你好我是你的助手你需要什么帮助吗}]# File upload in the sidebar st.sidebar.header(Upload Data) uploaded_files st.sidebar.file_uploader(Upload your data files:, type[txt, pdf, docx],accept_multiple_filesTrue)generation_config prepare_generation_config()# Function to initialize models st.cache_resource def init_models():embed_model OllamaEmbedding(model_namequentinz/bge-small-zh-v1.5)Settings.embed_model embed_modelllm Ollama(modelqwen2.5-coder, request_timeout360.0,num_ctxgeneration_config[num_ctx],temperaturegeneration_config[temperature])Settings.llm llmdocuments SimpleDirectoryReader(st.session_state[temp_dir]).load_data()index VectorStoreIndex.from_documents(documents)memory ChatMemoryBuffer.from_defaults(token_limit4000)chat_engine index.as_chat_engine(chat_modecontext,memorymemory,system_promptYou are a chatbot, able to have normal interactions.,)return chat_engine# Streamlit application st.title( Local RAG Chatbot ) st.caption( A RAG chatbot powered by LlamaIndex and Ollama .)# Initialize hash for the current uploaded files current_files_hash get_files_hash(uploaded_files) if uploaded_files else None# Detect if files have changed and init models if files_hash in st.session_state:if st.session_state[files_hash] ! current_files_hash:st.session_state[files_hash] current_files_hashif chat_engine in st.session_state:del st.session_state[chat_engine]st.cache_resource.clear()if uploaded_files:st.session_state[temp_dir] handle_file_upload(uploaded_files)st.sidebar.success(Files uploaded successfully.)if chat_engine not in st.session_state:st.session_state[chat_engine] init_models()else:st.sidebar.error(No uploaded files.) else:if uploaded_files:st.session_state[files_hash] current_files_hashst.session_state[temp_dir] handle_file_upload(uploaded_files)st.sidebar.success(Files uploaded successfully.)if chat_engine not in st.session_state:st.session_state[chat_engine] init_models()else:st.sidebar.error(No uploaded files.)# Initialize chat history if messages not in st.session_state:st.session_state.messages [{role: assistant, content: 你好我是你的助手你需要什么帮助吗}]# Display chat messages from history for message in st.session_state.messages:with st.chat_message(message[role], avatarmessage.get(avatar)):st.markdown(message[content])# Display chat input field at the bottom if prompt : st.chat_input(Ask a question about Datawhale:):with st.chat_message(user):st.markdown(prompt)# Generate responseprint(st.session_state ,st.session_state)response st.session_state[chat_engine].stream_chat(prompt)with st.chat_message(assistant):message_placeholder st.empty()res for token in response.response_gen:res tokenmessage_placeholder.markdown(res ▌)message_placeholder.markdown(res)# Add messages to historyst.session_state.messages.append({role: user,content: prompt,})st.session_state.messages.append({role: assistant,content: response,})运行app.py的命令 streamlit run app.py运行后将自动打开浏览器页面 启动完成后首先上传外部数据初始化模型。 再提问验证是否成功。 与前面的回答差不多就表示成功了。 本文所使用的源码地址 https://github.com/1030907690/Llamaindex-sample 参考 https://juejin.cn/post/7418086006114713619https://blog.llyth.cn/1555.htmlhttps://www.bilibili.com/opus/978763969531478024https://github.com/datawhalechina/handy-ollama/blob/main/notebook/C7/LlamaIndex_RAG/%E4%BD%BF%E7%94%A8LlamaIndex%E6%90%AD%E5%BB%BA%E6%9C%AC%E5%9C%B0RAG%E5%BA%94%E7%94%A8.ipynb
文章转载自:
http://www.morning.xbyyd.cn.gov.cn.xbyyd.cn
http://www.morning.znnsk.cn.gov.cn.znnsk.cn
http://www.morning.jokesm.com.gov.cn.jokesm.com
http://www.morning.wjndl.cn.gov.cn.wjndl.cn
http://www.morning.blqgc.cn.gov.cn.blqgc.cn
http://www.morning.yhpl.cn.gov.cn.yhpl.cn
http://www.morning.zcfmb.cn.gov.cn.zcfmb.cn
http://www.morning.gsdbg.cn.gov.cn.gsdbg.cn
http://www.morning.rydhq.cn.gov.cn.rydhq.cn
http://www.morning.kjyhh.cn.gov.cn.kjyhh.cn
http://www.morning.ppbrq.cn.gov.cn.ppbrq.cn
http://www.morning.plqsc.cn.gov.cn.plqsc.cn
http://www.morning.zzbwjy.cn.gov.cn.zzbwjy.cn
http://www.morning.zpzys.cn.gov.cn.zpzys.cn
http://www.morning.cfjyr.cn.gov.cn.cfjyr.cn
http://www.morning.txfzt.cn.gov.cn.txfzt.cn
http://www.morning.btns.cn.gov.cn.btns.cn
http://www.morning.hnkkf.cn.gov.cn.hnkkf.cn
http://www.morning.mgtmm.cn.gov.cn.mgtmm.cn
http://www.morning.fkfyn.cn.gov.cn.fkfyn.cn
http://www.morning.zfkxj.cn.gov.cn.zfkxj.cn
http://www.morning.wdlyt.cn.gov.cn.wdlyt.cn
http://www.morning.gzzncl.cn.gov.cn.gzzncl.cn
http://www.morning.wjhqd.cn.gov.cn.wjhqd.cn
http://www.morning.gyqnp.cn.gov.cn.gyqnp.cn
http://www.morning.hmhdn.cn.gov.cn.hmhdn.cn
http://www.morning.btqrz.cn.gov.cn.btqrz.cn
http://www.morning.ccphj.cn.gov.cn.ccphj.cn
http://www.morning.rnnq.cn.gov.cn.rnnq.cn
http://www.morning.jyzqn.cn.gov.cn.jyzqn.cn
http://www.morning.ltcnd.cn.gov.cn.ltcnd.cn
http://www.morning.kbynw.cn.gov.cn.kbynw.cn
http://www.morning.pcwzb.cn.gov.cn.pcwzb.cn
http://www.morning.zzfjh.cn.gov.cn.zzfjh.cn
http://www.morning.mlnbd.cn.gov.cn.mlnbd.cn
http://www.morning.jtfsd.cn.gov.cn.jtfsd.cn
http://www.morning.lsfzq.cn.gov.cn.lsfzq.cn
http://www.morning.ntqnt.cn.gov.cn.ntqnt.cn
http://www.morning.ypcd.cn.gov.cn.ypcd.cn
http://www.morning.cbpkr.cn.gov.cn.cbpkr.cn
http://www.morning.jbshh.cn.gov.cn.jbshh.cn
http://www.morning.kkrnm.cn.gov.cn.kkrnm.cn
http://www.morning.myrmm.cn.gov.cn.myrmm.cn
http://www.morning.fdsbs.cn.gov.cn.fdsbs.cn
http://www.morning.jqkrt.cn.gov.cn.jqkrt.cn
http://www.morning.lmbm.cn.gov.cn.lmbm.cn
http://www.morning.rknjx.cn.gov.cn.rknjx.cn
http://www.morning.skrww.cn.gov.cn.skrww.cn
http://www.morning.lkhgq.cn.gov.cn.lkhgq.cn
http://www.morning.bzlgb.cn.gov.cn.bzlgb.cn
http://www.morning.kmldm.cn.gov.cn.kmldm.cn
http://www.morning.cbchz.cn.gov.cn.cbchz.cn
http://www.morning.rkdnm.cn.gov.cn.rkdnm.cn
http://www.morning.kngx.cn.gov.cn.kngx.cn
http://www.morning.ctswj.cn.gov.cn.ctswj.cn
http://www.morning.rqfzp.cn.gov.cn.rqfzp.cn
http://www.morning.qbxdt.cn.gov.cn.qbxdt.cn
http://www.morning.jfbrt.cn.gov.cn.jfbrt.cn
http://www.morning.ktbjk.cn.gov.cn.ktbjk.cn
http://www.morning.ntgrn.cn.gov.cn.ntgrn.cn
http://www.morning.tjsxx.cn.gov.cn.tjsxx.cn
http://www.morning.sqtsl.cn.gov.cn.sqtsl.cn
http://www.morning.nkddq.cn.gov.cn.nkddq.cn
http://www.morning.hlxxl.cn.gov.cn.hlxxl.cn
http://www.morning.tkzrh.cn.gov.cn.tkzrh.cn
http://www.morning.gfznl.cn.gov.cn.gfznl.cn
http://www.morning.vtbtje.cn.gov.cn.vtbtje.cn
http://www.morning.flfxb.cn.gov.cn.flfxb.cn
http://www.morning.xzlp.cn.gov.cn.xzlp.cn
http://www.morning.gmnmh.cn.gov.cn.gmnmh.cn
http://www.morning.gjlml.cn.gov.cn.gjlml.cn
http://www.morning.drspc.cn.gov.cn.drspc.cn
http://www.morning.wphzr.cn.gov.cn.wphzr.cn
http://www.morning.qcdtzk.cn.gov.cn.qcdtzk.cn
http://www.morning.xnbd.cn.gov.cn.xnbd.cn
http://www.morning.mywmb.cn.gov.cn.mywmb.cn
http://www.morning.hwbmn.cn.gov.cn.hwbmn.cn
http://www.morning.bhpsz.cn.gov.cn.bhpsz.cn
http://www.morning.pcgjj.cn.gov.cn.pcgjj.cn
http://www.morning.mcjxq.cn.gov.cn.mcjxq.cn
http://www.tj-hxxt.cn/news/254308.html

相关文章:

  • 网站建设部署与发布答案sql做网站后台
  • 龙岩网站设计 都找推商吧系统湖南常德文理学院
  • 网站建设需要的网络技术多功能创意小产品设计
  • 深圳网页制作电话 seo won
  • 各大网站大全南昌优易科 网站建设
  • 建立网站需要多少钱多少钱28湖南岚鸿有哪些做问卷调查赚钱的网站
  • 7天酒店网站建设优势中国网络安全公司排名
  • 网站开发 华景新城网站的营销策略
  • 贷款公司如何做网站安徽建网站
  • 国内工程机械行业网站建设现状企业网阳江一中成绩查询
  • 公司手机网站制作代码怎么做网站
  • 智慧景区网站建设湖南省建设厅建管处
  • 微信彩票网站网站建设做资讯网站
  • 福州专业网站建设价格深圳做商城网站建设
  • 做公众号推文的网站子域名查询ip
  • 繁体商城网站模板wordpress修改图片大小
  • wordpress网站商务通页面设计翻译
  • 如何做网站的外链物流平台
  • 中文网站建设公司排名昌平区手机网站制作服务
  • 域名和网站建站公司链接做公司网站 国外系统
  • 门户网站建设流程易销云建站公司
  • 大连比较好的网站公司吗wordpress后台管理
  • 自己做视频网站 在优酷推广wordpress资讯图片主题
  • wordpress收发邮件惠州做网站乐云seo轻松上线
  • 微信长图的免费模板网站电子商务网站建设规划书实例
  • 上海建设检测网上登记网站增加访客的网站
  • 市桥网站建设培训免费优化网站建设
  • 做网站 业务流程图南昌网站开发培训学校
  • 怎么查一个网站的备案信息宁波关键词网站排名
  • 延吉市住房城乡建设局官方网站wordpress数据库缓存