当前位置: 首页 > news >正文

域名更换网站网站建设平台有哪些 谢谢平台建站

域名更换网站,网站建设平台有哪些 谢谢平台建站,视觉传达设计公司排名前十强,移动网站怎么做优化目录 背景#xff1a;步骤 1.获取模型权重第 2 步#xff1a;准备第 3 步#xff1a;构建 TensorRT-LLM 引擎 背景#xff1a; 大型语言模型 #xff08;LLM#xff09; 推理的关键瓶颈在于 GPU 内存资源短缺。因此#xff0c;各种加速框架主要强调减少峰值 GPU 内存使… 目录 背景步骤 1.获取模型权重第 2 步准备第 3 步构建 TensorRT-LLM 引擎 背景 大型语言模型 LLM 推理的关键瓶颈在于 GPU 内存资源短缺。因此各种加速框架主要强调减少峰值 GPU 内存使用和提高 GPU 利用率。 这就是 Nvidia 的游戏规则改变者 TensorRT-LLM 发挥作用的地方。TensorRT-LLM 是一个开源库可加速和优化 NVIDIA AI 平台上 LLM 的推理性能。TensorRT 为 NVIDIA GPU 上的推理提供了高度专业化的优化。请参阅 Github 存储库以获取更多示例和文档 在本指南中我将以 Llama-3-8B-Instruct 模型为例演示如何在 NVIDIA Jetson AGX Orin 64GB 开发者套件上使用 TensorRT-LLM 部署 LLM 推理引擎。NVIDIA Jetson AGX Orin 开发者套件在基于 Arm 的 CPU 内核和基于 NVIDIA Ampere 架构的 GPU 之间具有统一的内存架构。系统具有 64 GB 的共享内存由 CPU 和 GPU 共享。 Nvidia JetPack 6.1 是 JetPack 6 的最新生产版本。确保您的 Jetson AGX Orin 开发者套件已使用最新的 JetPack 6.1 进行刷新。 使用 apt show nvidia-jetpack 命令检查当前 jetpack 版本 Package: nvidia-jetpack Version: 6.1b123 Priority: standard Section: metapackages Source: nvidia-jetpack (6.1) Maintainer: NVIDIA Corporation Installed-Size: 199 kB Depends: nvidia-jetpack-runtime ( 6.1b123), nvidia-jetpack-dev ( 6.1b123) Homepage: http://developer.nvidia.com/jetson Download-Size: 29.3 kB APT-Sources: https://repo.download.nvidia.com/jetson/common r36.4/main arm64 Packages Description: NVIDIA Jetpack Meta Package您可以使用预构建的 Docker 映像因此您可以按照 Nvidia Jetson AI Lab 页面上的文档轻松入门https://www.jetson-ai-lab.com/tensorrt_llm.html 为了增加 VRAM我在 Jetson AGX Orin 上禁用了桌面 GUI。 步骤 1.获取模型权重 我们需要下载我们将使用的模型的权重即 Meta-Llama-3-8B-Instruct。因此请确保您已接受许可条款并生成相应的 HuggingFace 令牌以下载模型。 首先您需要通过在终端中运行以下命令来设置 Git LFS sudo apt-get update sudo apt-get -y install git-lfs通过运行以下命令安装 Git LFS git lfs install使用以下命令克隆 Llama-3-8B 模型存储库 https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct或者您可以使用 Hugging Face CLI 下载模型。使用以下命令安装 CLI pip install -U huggingface_hub[cli]使用 huggingface-cli login 命令验证您的 Hugging Face 帐户。输入您的 Hugging Face API 密钥。 使用以下命令下载 Llama-3-8B-Instruct 模型 huggingface-cli download meta-llama/Llama-3-8B-Instruct --local-dir ./Llama-3-8B-Instruct下载完成后您可以使用以下命令验证下载文件夹的内容 wangyhubuntu:/media/wangyh/My Passport/llama3-8b-instruct$ ls -l total 15695249 -rwxrwxrwx 1 wangyh wangyh 9802 1月 6 09:36 added_tokens.yaml -rwxrwxrwx 1 wangyh wangyh 654 1月 6 09:36 config.json -rwxrwxrwx 1 wangyh wangyh 187 1月 6 09:36 generation_config.json -rwxrwxrwx 1 wangyh wangyh 2183982 1月 6 09:36 llama3_8b.tiktoken -rwxrwxrwx 1 wangyh wangyh 4976698672 1月 6 09:38 model-00001-of-00004.safetensors -rwxrwxrwx 1 wangyh wangyh 4999802720 1月 6 09:40 model-00002-of-00004.safetensors -rwxrwxrwx 1 wangyh wangyh 4915916176 1月 6 09:42 model-00003-of-00004.safetensors -rwxrwxrwx 1 wangyh wangyh 1168138808 1月 6 09:42 model-00004-of-00004.safetensors -rwxrwxrwx 1 wangyh wangyh 23950 1月 6 09:42 model.safetensors.index.json drwxrwxrwx 1 wangyh wangyh 0 1月 6 09:42 original -rwxrwxrwx 1 wangyh wangyh 73 1月 6 09:42 special_tokens_map.json -rwxrwxrwx 1 wangyh wangyh 50977 1月 6 09:42 tokenizer_config.json -rwxrwxrwx 1 wangyh wangyh 9085698 1月 6 09:42 tokenizer.json第 2 步准备 使用 venv 模块创建新的虚拟环境以隔离您的项目依赖项。 python3 -m venv tensorrt-llm-env激活新创建的虚拟环境 source tensorrt-llm-env/bin/activate更新包并安装所需的包 sudo apt-get update sudo apt-get install -y python3-pip libopenblas-dev ccache下载 CuSparseLT 安装脚本 wget https://raw.githubusercontent.com/pytorch/pytorch/9b424aac1d70f360479dd919d6b7933b5a9181ac/.ci/docker/common/install_cusparselt.sh设置 CUDA 版本通过运行以下命令将 CUDA 版本设置为 12.6 export CUDA_VERSION12.6通过运行以下命令安装 CuSparseLT sudo -E bash ./install_cusparselt.sh此过程可能需要一些时间才能完成。确保安装成功完成。 最后使用 pip 安装 NumPy 版本 1.26.1bash 复制代码 python3 -m pip install numpy1.26.1此步骤完成准备阶段设置后续步骤所需的环境和依赖项。 第 3 步构建 TensorRT-LLM 引擎 使用以下命令从 GitHub 克隆 TensorRT-LLM 存储库 git clone https://github.com/NVIDIA/TensorRT-LLM.git cd TensorRT-LLM git checkout v0.12.0-jetson git submodule update --init --recursive git lfs pull然后执行以下命令为 TensorRT-LLM 构建一个 wheel 文件 sudo python3 scripts/build_wheel.py --clean --cuda_architectures 87 -DENABLE_MULTI_DEVICE0 --build_type Release --benchmarks --use_ccache -DCMAKE_CUDA_COMPILER/usr/local/cuda-12.6/bin/nvcc此命令为 TensorRT-LLM 构建一个 wheel 文件。可能需要一些时间才能完成。 您将看到如下所示的输出 Successfully built tensorrt_llm-0.12.0-cp310-cp310-linux_aarch64.whl使用 pip 安装构建的 wheel 文件 pip3 install build/tensorrt_llm-0.12.0-cp310-cp310-linux_aarch64.whl预期输出 Successfully installed tensorrt-llm-0.12.0通过导入库并打印其版本来验证安装 python3 -c import tensorrt_llm; print(tensorrt_llm.__version__)【注】到这一步当在虚拟环境下面使用tensorrt_llm库的时候会报错没有找到“tensorrt_llm”如下图所示 提示缺少Python版本的tensorrt库但是jetpack环境里面没有留下Python版tensorrt的安装包这个时候有两种方法 到网上下载jetson版本的TensorRT-10.3的.wheel文件然后自己手动安装将本地/usr路径下的tensorrt拷贝出来 这里我们选择第二种方法 cd ~/tensorrt-llm-env/lib/python3.10/site-packages cp -r /usr/lib/python3.10/dist-packages/tensorrt* .要在 GPU 上高效运行这些模型我们必须将它们转换为 TensorRT-LLM 格式。然后我们将使用 trtllm-build 命令行工具从 Hugging Face 检查点构建优化的 TensorRT 引擎。 HuggingFace 模型的转换可以通过一个命令完成 python examples/llama/convert_checkpoint.py --model_dir /media/wangyh/My\ Passport/llama3-8b-instruct --output_dir /media/wangyh/My\ Passport/Llama-3.1-8B-Instruct-convert --dtype float16您将看到如下所示的输出 [TensorRT-LLM] TensorRT-LLM version: 0.12.0 0.12.0 230it [00:04, 50.42it/s] Total time of converting checkpoints: 00:03:11这应该会产生两个文件模型配置 config.json 和权重 rank0.safetensors。接下来我们构建模型引擎 trtllm-build --checkpoint_dir /media/wangyh/My\ Passport/Llama-3.1-8B-Instruct-convert --gpt_attention_plugin float16 --gemm_plugin float16 --output_dir /media/wangyh/My\ Passport/Llama-3.1-8B此命令使用转换后的检查点构建 TensorRT 引擎并将结果存储在指定的目录中。 如果构建成功您应该会看到以下输出 [11/17/2024-16:26:23] [TRT-LLM] [I] Build phase peak memory: 32793.48 MB, children: 0.00 MB [11/17/2024-16:26:23] [TRT-LLM] [I] Serializing engine to /home/jetson/Projects/tensorrtllm/Llama-3.1-8B-final/rank0.engine... [11/17/2024-16:26:44] [TRT-LLM] [I] Engine serialized. Total time: 00:00:20 [11/17/2024-16:26:45] [TRT-LLM] [I] Total time of building all engines: 00:01:06这应该会产生两个文件模型配置 config.json 和权重 rank0.engine。 第 4 步在 NVIDIA Jetson AGX Orin 64GB 开发者套件上运行推理 构建模型引擎后您可以通过使用以下命令运行模型来测试它 python examples/run.py --engine_dir /media/wangyh/My\ Passport/Llama-3.1-8B-Instruct-engine --max_output_len 100 --max_attention_window_size 1024 --tokenizer_dir /media/wangyh/My\ Passport/llama3-8b-instruct/ --input_text Kazakhstan is --gpu_weights_percent 70 --kv_cache_free_gpu_memory_fraction 0.1 --num_beams 1如果模型成功运行您应该会看到以下输出 当令牌流式传输时可以明显地注意到 TensorRT LLM 的性能。 然后我们可以在 OpenAI 兼容模式下对 TensorRT LLM 服务器进行 TensorRT LLM 服务器。运行以下命令 python examples/apps/openai_server.py /media/wangyh/My\ Passport/Llama-3.1-8B-Instruct-engine --tokenizer /media/wangyh/My\ Passport/llama3-8b-instruct/ --host 0.0.0.0 --port 5001使用 –host 选项您可以允许外部连接。 您可以通过使用 curl 命令发送请求来测试模型的推理。 curl http://localhost:5001/v1/chat/completions \-H Content-Type: application/json \-d {model: meta-llama/Llama-3.1-8B,messages: [{role: system, content: You are a helpful assistant.},{role: user, content: Who won the world series in 2020?}]}如果响应成功您应该会看到以下输出 {id:chatcmpl-d2c4ab76cea845fa80374af3133d4ef4,object:chat.completion,created:1736154766,model:meta-llama/Llama-3.1-8B,choices:[{index:0,message:{role:assistant,content:The Los Angeles Dodgers won the World Series in 2020! They defeated the,tool_calls:[]},logprobs:null,finish_reason:null,stop_reason:null}],usage:{prompt_tokens:32,total_tokens:48,completion_tokens:16}}您可以使用类似于 OpenAI 的客户端函数来调用 TensorRT-LLM 服务。 from openai import OpenAIopenai_api_key EMPTY openai_api_base http://localhost:5001/v1client OpenAI(api_keyopenai_api_key,base_urlopenai_api_base, )chat_response client.chat.completions.create(modelmeta-llama/Llama-3.1-8B-Instruct,messages[{role: system, content: You are a helpful assistant.},{role: user, content: Tell me a about Kazakhstan.},] ) print(Chat response:, chat_response)如果响应如下则部署成功。 (tensorrt-llm-env) wangyhubuntu:~/TensorRT-LLM$ python tensorrt_llm_orin_openai_request.py Chat response: ChatCompletion(idchatcmpl-2123732b12b84b2f8145272da88bb0f7, choices[Choice(finish_reasonNone, index0, logprobsNone, messageChatCompletionMessage(contentKazakhstan! A vast and fascinating country located in Central Asia, bordering, refusalNone, roleassistant, audioNone, function_callNone, tool_calls[]), stop_reasonNone)], created1736154822, modelmeta-llama/Llama-3.1-8B-Instruct, objectchat.completion, service_tierNone, system_fingerprintNone, usageCompletionUsage(completion_tokens16, prompt_tokens28, total_tokens44, completion_tokens_detailsNone, prompt_tokens_detailsNone))创建 Streamlit Web 应用程序以与 TensorRT-LLM 服务交互 import streamlit as st from openai import OpenAIst.title(TensorRT-LLM Demo on the NVIDIA Jetson AGX Orin Developer Kit )client OpenAI(base_urlhttp://localhost:5001/v1, api_keyNone)if messages not in st.session_state:st.session_state[messages] []prompt st.chat_input(Say something) if prompt:st.session_state[messages].append({role: user, content: prompt})for message in st.session_state[messages]:st.chat_message(message[role]).write(message[content])container st.empty()chat_completion client.chat.completions.create(streamTrue,messagesst.session_state[messages],modelensemble, max_tokens512)response for event in chat_completion:content event.choices[0].delta.contentif content:response contentcontainer.chat_message(assistant).write(response)st.session_state[messages].append({role: assistant, content: response})在这篇博文中我的目标是演示如何在 NVIDIA Jetson AGX Orin 64GB 开发者套件上使用 TensorRT LLM 实现最先进的推理。我涵盖了从编译 LLM 到使用 Streamlit 在生产环境中部署模型的所有内容。
http://www.tj-hxxt.cn/news/218604.html

相关文章:

  • 中国邮政做特产的网站seo搜索引擎优化排名
  • 对于做网站有什么要求职业教育网站建设方案
  • 黄埔网站建设优化seo济南做网站互联网公司
  • 广州口碑好的网站建设定制wordpress sql自定义菜单
  • wordpress生成网站模版如何做区块链网站
  • 做网站有哪些程序wordpress 速度变慢
  • wordpress多网站整合在一个后台wordpress菜单插件
  • 青岛网站制作公司哪家正规重庆网站建设红衫
  • 网站空间控制面板珠海网站制作推广公司
  • 怎么查询网站是否收录营销策划书范文案例
  • 阿里云建设网站好不好电商平台模板
  • 企业自建站注册域名费用
  • 怎样更换网站cms深圳网站搭建专业公司
  • 凡科建网站十大网络平台有哪些
  • wordpress中搜索页面模板关键词优化分析工具
  • 企智网站建设死链接对网站的影响
  • 石家庄市住房城乡建设局网站天津网站app建设
  • 上海网网站建设长沙哪个公司做网站好
  • 怎样做商城网站的推广logo图片设计
  • 合肥建站免费模板dw建设网站的代码模板
  • 法律问题咨询哪个网站做的好网页设计作品聚散
  • 300网站建设开发一个网站一般需要多少钱
  • 网站服务器如何管理关键词seo服务
  • 电脑商业网站怎的做做企业网站大概多少钱
  • 做网站济南西wordpress 文章 相册
  • 沈阳 建设工程 招标中心网站《企业宣传片制作》
  • 兰州市住房和城乡建设局网站手机网站一键分享
  • 网站没有内容 能做优化吗php购物网站开发uml图
  • 邵阳做网站哪个公司好敏捷软件开发流程
  • 网页游戏直接玩爱站网seo工具查询