当前位置: 首页 > news >正文

wordpress搜资料百度网站的优化方案

wordpress搜资料,百度网站的优化方案,知名网络公司有哪些,做贷款在那些网站找客户我们提出的 LayerSkip 是一种端到端的解决方案,可加快大型语言模型(LLM)的推理速度。 首先,在训练过程中,我们采用了层间丢弃技术(layer dropout),早期层间丢弃率较低,后期层间丢弃率较高。 其次…

我们提出的 LayerSkip 是一种端到端的解决方案,可加快大型语言模型(LLM)的推理速度。 首先,在训练过程中,我们采用了层间丢弃技术(layer dropout),早期层间丢弃率较低,后期层间丢弃率较高。 其次,在推理过程中,我们证明这种训练方法提高了早期退出的准确性,而无需在模型中添加任何辅助层或模块。 第三,我们提出了一种新颖的自推测解码方案,即在早期层退出,并通过模型的其余层进行验证和校正。 与其他推测式解码方法相比,我们提出的自推测式解码方法占用的内存更少,并能从草稿和验证阶段的共享计算和激活中获益。 我们在不同大小的 Llama 模型上进行了不同类型的训练实验:从头开始预训练、持续预训练、在特定数据域上进行微调,以及在特定任务上进行微调。 我们实施了推理解决方案,结果表明,CNN/DM 文档的摘要速度提高了 2.16 倍,编码速度提高了 1.82 倍,TOPv2 语义解析任务的速度提高了 2.0 倍。 我们在 https://github.com/facebookresearch/LayerSkip 开源了我们的代码。

在这里插入图片描述

快速上手

$ git clone git@github.com:facebookresearch/LayerSkip.git
$ cd LayerSkip

创建环境

$ conda create --name layer_skip python=3.10
$ conda activate layer_skip$ pip install -r requirements.txt

访问模型: 为了观察加速情况,您需要访问使用 LayerSkip 配方训练过的 LLM。 我们在 HuggingFace 上提供了 6 个检查点,它们是使用 LayerSkip 配方持续预训练的不同 Llama 模型:

  • facebook/layerskip-llama2-7B
  • facebook/layerskip-llama2-13B
  • facebook/layerskip-codellama-7B
  • facebook/layerskip-codellama-34B
  • facebook/layerskip-llama3-8B
  • facebook/layerskip-llama3.2-1B

代码

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
from copy import deepcopycheckpoint = "facebook/layerskip-llama3.2-1B"
early_exit = 4
device = "cuda" if torch.cuda.is_available() else "cpu"
prompt = "typing import List\ndef bucket_sort(A: List):"model = AutoModelForCausalLM.from_pretrained(checkpoint, device_map="auto", use_safetensors=True, torch_dtype=torch.bfloat16)
tokenizer = AutoTokenizer.from_pretrained(checkpoint)generation_config = model.generation_configweights_memo = {id(w): w for w in model.parameters()}
assistant_model = deepcopy(model, memo=weights_memo) # Clone main model with shared weights
assistant_model.model.layers = assistant_model.model.layers[:early_exit] # Apply early exit
del assistant_model.model.layers[early_exit:]inputs = tokenizer(prompt, return_tensors="pt").to(device)outputs = model.generate(**inputs, generation_config=generation_config, assistant_model=assistant_model, max_new_tokens=512)
print(tokenizer.batch_decode(outputs, skip_special_tokens=True)[0])

或者Torchrun

$ torchrun generate.py --model facebook/layerskip-llama2-7B \--sample True \--max_steps 512

LayerSkip的项目地址

  • GitHub仓库:https://github.com/facebookresearch/LayerSkip
  • HuggingFace模型库:https://huggingface.co/collections/facebook/layerskip-666b25c50c8ae90e1965727a
  • arXiv技术论文:https://arxiv.org/pdf/2404.16710

感谢大家花时间阅读我的文章,你们的支持是我不断前进的动力。期望未来能为大家带来更多有价值的内容,请多多关注我的动态!

http://www.tj-hxxt.cn/news/13264.html

相关文章:

  • 连云港做网站公司河南郑州网站顾问
  • 服务好的高端网站建设公司2022年新闻热点事件
  • 河北邢台手机网站建设竞价推广思路
  • 微信公众号免费制作成微网站网购网站十大排名
  • 网站搭建哪里找方便百度云手机app下载
  • 系统集成销售和网站建设销售百度客服24小时电话
  • 网站现状如何分析店铺推广软文范例
  • 设计相关的网站百度人工客服电话
  • 网站和app可以做充值余额功能真正免费建站网站
  • 承德网站建设开发北京seo技术交流
  • php企业网站 源码网页设计软件dreamweaver
  • 有些中小网站西安网站建设制作公司
  • 免费的黄冈网站有哪些代码外链生成器
  • 青海公路建设服务网站企业培训公司有哪些
  • 北京商城网站开发百度指数平台
  • 长沙公司网站开发深圳防疫措施优化
  • 网站ssl证书怎么做百度收录提交工具
  • 个人域名用来做淘宝客网站网店推广有哪些方法
  • 湛江免费企业建站色盲测试图免费测试
  • 建网站免费吗seo成都培训
  • 做网站关键字seo综合查询怎么用的
  • 哪个网站可以做图片链接网址关键词查询
  • 棋牌类网站怎么做如何查询百度搜索关键词排名
  • 静态网页文件的扩展名360优化大师官网
  • dedecms网站地图修改广州seo推广优化
  • 做移动端活动页面参考网站百度一下手机版
  • 怎么建设独立网站百度推广收费
  • wordpress学人的冬天seo双标题软件
  • web开发就是网站开发吗网站优化包括对什么优化
  • 邯郸做网站的电话温州seo顾问