鑫菲互动网站建设公司,河南省住房城乡和建设厅网站,西安建设主管部门官方网站,建筑公司企业文化环境部署
首先安装anaconda#xff08;建议包管理比较方便#xff09;windows用户需手动配置一下环境变量#xff0c;下面默认是在ubuntu环境说明创建python环境#xff0c;conda create -n your_env_name python3.10 (注#xff1a;官方是提供是python3.8#xff0c;但…环境部署
首先安装anaconda建议包管理比较方便windows用户需手动配置一下环境变量下面默认是在ubuntu环境说明创建python环境conda create -n your_env_name python3.10 (注官方是提供是python3.8但目前主流用python3.10 因此使用python3.10. your_env_name 是可以自己命名的环境名字 )导入需要的包这里包版本的参考在附件中的requirements.txt, 可以使用pip install -r requirements.txt
拉取github项目 git clone https://github.com/chatchat-space/langchain-ChatGLM.git cd langchain-ChatGLM 启动webui如果是ubuntu 可以直接运行命令 python webui.py 启动api接口如果是ubuntu 可以直接运行命令 python api.py多卡启动 在命令前面指定CUDA_VISIBLE_DEVICES0,1 类似这样 如 CUDA_VISIBLE_DEVICES0,1,2,3 python api.py可能遇到的问题 默认直接运行命令时第一次将会从huggingface上下载模型可能遇到网络连接的问题解决方案如下 重新运行因为有断点重连所以就不停的重新运行直到下完模型权重就行默认地址为~/.cache/huggingface/hub/models–模型名称 打开huggingface搜索要下载的模型在Files and versions中将模型都下载到本地目录结构为 . └── 模型文件夹 ├── added_tokens.json ├── config.json ├── configuration_codet5p_embedding.py ├── merges.txt ├── modeling_codet5p_embedding.py ├── pytorch_model.bin ├── special_tokens_map.json ├── tokenizer.json ├── tokenizer_config.json └── vocab.json 然后在langchain-ChatGLM/config/model_config.py 中配置local_model_path 字段为 模型文件夹所在的路径
更多说明
可以使用fastchat 部署做到 模型和api在不同的服务器或相同服务器
参考连接 https://github.com/lm-sys/FastChat/blob/main/docs/openai_api.md#restful-api-server