当前位置: 首页 > news >正文

wordpress客户端linux班级优化大师app下载学生版

wordpress客户端linux,班级优化大师app下载学生版,风景网页制作模板,html网站标签一、MindSpore Serving MindSpore Serving是一款轻量级、高性能的服务工具#xff0c;帮助用户在生产环境中高效部署在线推理服务。 使用MindSpore完成模型训练导出MindSpore模型#xff0c;即可使用MindSpore Serving创建该模型的推理服务。 MindSpore Serving包含以…一、MindSpore Serving MindSpore Serving是一款轻量级、高性能的服务工具帮助用户在生产环境中高效部署在线推理服务。 使用MindSpore完成模型训练导出MindSpore模型即可使用MindSpore Serving创建该模型的推理服务。 MindSpore Serving包含以下功能 支持自定义关于模型的预处理和后处理简化模型的发布和部署。 支持batch功能包含多个实例的请求会被拆分组合以满足模型batch size的需要。 支持分布式模型推理功能。 支持客户端gRPC接口提供简单易用的客户端Python封装接口。 支持客户端RESTful接口。 部署Serving推理服务 serving_server.py为启动服务脚本文件。xxx.mindir为上一步网络生成的模型文件。servable_config.py为模型配置文件定义了模型的处理函数。 启动服务 执行serving_server.py完成服务启动 import os import sys from mindspore_serving import serverdef start():servable_dir os.path.dirname(os.path.realpath(sys.argv[0]))servable_config server.ServableStartConfig(servable_directoryservable_dir, servable_nameadd,device_ids(0, 1))server.start_servables(servable_configsservable_config)server.start_grpc_server(address127.0.0.1:5500)server.start_restful_server(address127.0.0.1:1500)if __name__ __main__:start()启动脚本中start_servables将在设备0和1上共加载和运行两个推理副本来自客户端的推理请求将被切割分流到两个推理副本。 当服务端打印如下日志时表示Serving gRPC服务和RESTful服务启动成功。 Serving gRPC server start success, listening on 127.0.0.1:5500 Serving RESTful server start success, listening on 127.0.0.1:1500 执行推理 客户端提供两种方式访问推理服务一种是通过gRPC方式一种是通过RESTful方式。 使用serving_client.py启动Python客户端。 ———————————————————————————————————————— RESTful是一种基于HTTP协议的网络应用程序的设计风格和开发方式通过URI实现对资源的管理及访问具有扩展性强、结构清晰的特点。基于其轻量级以及通过HTTP直接传输数据的特性RESTful已经成为最常见的Web服务访问方式。用户通过RESTful方式能够简单直接的与服务进行交互。 通过mindspore_serving.server.start_restful_server接口启动RESTful服务 请求方式 当前仅支持POST类型的RESTful请求请求格式如下 POST http://HOST:1234/model/LLaMA:generated_stream如果使用curl工具RESTful请求方式如下 curl -X POST -d {instances:{image:{b64:babe64-encoded-string}}} http://HOST:1234/model/LLaMA:generated_stream二、TGI框架 若干客户端同时请求Web Server的“/generate”服务后服务端将这些请求在“Buffer”组件处整合为Batch并通过gRPC协议转发请求给NPU推理引擎进行计算生成。 将请求发给多个Model Shard多个Model Shard之间通过NCCL通信 是因为显存容量有限或出于计算效率考虑需要多卡进行分布式推理。 推理框架一般会将第1次推理(首Token)和余下的推理生成其余Token分别设计为Prefill和Decode两个过程 Prefill 是将1个请求的Prompt一次性转换为KV Cache,并生成第1个Token的过程。 假设Prompt的长度为LMultiHead Attention的头数为HHead每个头的维度为HSHead Size暂不考虑GQA/MQA。 计算该过程时输入Attention的Q、K、V维度均为[L,H, HS],输入FFN的hidden隐藏层向量维度为[L, H *HS]。 完成模型计算后仅对最后一个Logit进行解码得到首Token中间过程计算得到的K、V被保留在显存中即KV Cache用于避免后续Decode过程重复计算这些K、V导致算力浪费。 Decode从第2个Token开始将上一次推理的输出新生成的1个Token作为输入进行一次新的推理。假设BatchSize1已生成的新子序列长度为N在计算该过程时输入Attention的Q维度为[1,H, HS], K、V维度则为[LN1,H, HS]输入FFN的hidden维度为[1, H*HS]。 完成模型计算后对唯一的Logit进行解码得到新生成的Token中间过程计算得到的K、V追加到KV Cache中原因同上。重复Decode流程持续生成Token直到模型输出(End of Sentence,表示输出结束的特殊Token)。 将推理分为Prefill和Decode是考虑到生成第1个Token和其余Token时计算模式的差异较大分开实现有利于针对性优化。 TGI引入Continuous Batching特性其中请求的合并和剔除就是通过Router向Server发送Concatenate和Filter的Request实现。 Continuous Batching或称Inflight Batch核心思想是在两次Decode的间隙插入新请求的Prefill、各请求的合并和剔除等操作从而以动态Batch推理的方法提高NPU利用率。
http://www.tj-hxxt.cn/news/138300.html

相关文章:

  • 深圳做公司网站wordpress网站调用导航菜单
  • 做拍卖的网站有哪些中国网站名
  • 知乎 php网站开发书籍成立网站建设工作领导小组
  • 制作微信公众号网站开发海南做网站的公司
  • 揭阳网站制作建设贸易公司如何做网站
  • 网站单页设计装潢设计培训班学费多少钱
  • 做网站主流软件是php吗wordpress手机分享插件下载
  • 长沙专业网站建设运营山东seo网络推广
  • 学习搭建网站怎么给一个网站做seo
  • 建网站难不难解析网站制作
  • 自己免费制作app平台自助seo网站建设
  • 厦门 微网站制作学网站建设要什么
  • 建设银行网站无法访问如何开发公司的网站
  • 企业网站排行wordpress的主要功能
  • 廉洁长沙网站资源网源码
  • 几十个必备的设计师灵感网站天津高端网站定制
  • 网站建设丿金手指下拉9上海高端网站建设服务公司
  • 知名的传媒行业网站开发域名转接的流程
  • 大连网站建设大全杭州pc网站制作公司
  • 贵阳做网站方舟网络网站有哪些
  • 罗琳做的网站目前徐州有多少网架公司
  • 许昌建设企业网站北京十大企业公司排名
  • 手机网站 返回顶部中国建筑网官网是哪个
  • html5国外酷炫网站企业信用信息公示平台
  • 如何做返利网站外推广网站备案工作
  • 网站建设 英语翻译做狗狗网站的背景图
  • 教育在线网站怎样做直播wordpress所有文章新窗口打开
  • 网站建设实训报告模板wordpress发布商品
  • 2015年做哪些网站致富单页营销分享网站
  • pc网站建设方案有哪些深圳专业专业网站建设公司