当前位置: 首页 > news >正文

南京便宜网站建设万网 x3 wordpress

南京便宜网站建设,万网 x3 wordpress,自己怎么开电商平台,唐山哪里做网站LORA概述: 大语言模型的低阶适应 LORA: 大语言模型的低阶适应前言摘要论文十问实验RoBERTaDeBERTaGPT-2GPT-3 结论代码调用 LORA: 大语言模型的低阶适应 前言 LoRA的核心思想在于优化预训练语言模型的微调过程#xff0c;通过有效地处理权重矩阵的变化#xff08;即梯度更新… LORA概述: 大语言模型的低阶适应 LORA: 大语言模型的低阶适应前言摘要论文十问实验RoBERTaDeBERTaGPT-2GPT-3 结论代码调用 LORA: 大语言模型的低阶适应 前言 LoRA的核心思想在于优化预训练语言模型的微调过程通过有效地处理权重矩阵的变化即梯度更新的累积使其具有“低秩”结构。简而言之这意味着可以通过低秩分解有效地表示变化矩阵。 具体来说对于预训练权重矩阵W₀其更新量可以表示为∆W BA其中B和A都是低秩矩阵例如秩为rr明显小于矩阵维度d。在训练期间W₀被冻结而B和A中的参数是可训练的。这明显减少了适应的可训练参数数量。 如下图所示在原始预训练语言模型旁边添加一个旁路执行降维再升维的操作以模拟内在秩。在训练过程中固定预训练语言模型的参数只训练降维矩阵A和升维矩阵B。模型的输入输出维度保持不变输出时将BA与预训练语言模型的参数叠加。矩阵A使用随机高斯分布进行初始化而矩阵B则使用零矩阵进行初始化以确保在训练开始时该旁路矩阵仍然是零矩阵。 摘要 自然语言处理的一个重要范式包括在通用域数据上进行大规模预训练,以及针对特定任务或域进行适配。随着我们预训练更大的模型,全面微调,即重新训练所有模型参数,变得更加不可行。 以GPT-3 175B为例,单独部署经过微调的独立实例模型,每个实例拥有1750亿个参数,是极其昂贵的。我们提出了低秩适应(LoRA)方法,其中冻结预训练模型权重,并在transformer体系结构的每个层中插入可训练的低秩分解矩阵,从而大大减少下游任务的可训练参数数量。 与使用Adam微调GPT-3 175B相比,LoRA可以将可训练参数数量减少10000倍,GPU内存需求减少3倍。尽管只有更少的可训练参数和更高的训练吞吐量,但LoRA在RoBERTa、DeBERTa、GPT-2和GPT-3上的性能优于或等同于微调。 我们还对语言模型适配中的秩缺失进行了实证研究,这解释了LoRA的功效。我们发布了一个软件包,可以方便地将LoRA与PyTorch模型集成,并为RoBERTa、DeBERTa和GPT-2提供了我们的实现和模型检查点。 论文十问 论文试图解决什么问题 这篇论文试图解决大规模预训练语言模型(如GPT-3)微调(fine-tuning)所带来的巨大的存储、部署和任务切换成本的问题。 这是否是一个新的问题 这不是一个全新的问题,但随着 transformer 语言模型规模的不断增长(如 GPT-3 175B 参数),这个问题的严重性在增加。论文中也提到了许多相关的已有工作。 这篇文章要验证一个什么科学假设 这篇文章的主要科学假设是微调过程中模型参数的变化矩阵具有低秩结构(rank-deficient)。基于这个假设,作者提出了低秩适应(LoRA)方法来有效地适应下游任务。 有哪些相关研究如何归类谁是这一课题在领域内值得关注的研究员 相关的工作包括适配器模块、prompt tuning等参数高效适应方法。 论文中提到的解决方案之关键是什么 LoRA的关键是只训练插入到每个transformer层中的低秩分解矩阵,而保持预训练权重固定。这大大降低了适应的可训练参数数量。 论文中的实验是如何设计的 在 RoBERTa、DeBERTa、GPT-2 和 GPT-3 等模型上进行了大量实验比较。实验设计针对性强,测试了性能和参数数量的权衡。 用于定量评估的数据集是什么代码有没有开源 使用的数据集包括 GLUE、WikiSQL、SAMSum 等。实验代码和模型检查点开源。 论文中的实验及结果有没有很好地支持需要验证的科学假设 是的,丰富的实验验证了 LoRA 在性能、存储效率、训练速度等方面都优于或匹敌全微调基线,支持了低秩适应的有效性。 这篇论文到底有什么贡献 主要贡献是提出 LoRA 方法,大幅降低大模型微调的成本,并给出可复现的实验验证。 下一步呢有什么工作可以继续深入 下一步可以考虑与其他高效适应方法(如prompt tuning)的结合,解释微调过程中模型内部表示的变化,进一步提高 LoRA 的泛化性等。 实验 评估了 LoRA 在 RoBERTa (Liu et al., 2019)、DeBERTa (He et al., 2021) 和 GPT-2 (Radford etal., b) 上的下游任务性能然后再扩展到 GPT- 3 175B布朗等人2020 年 RoBERTa RoBERTa是Facebook AI于2019年提出的语言表示模型。相比BERT有更优化的预训练步骤,性能更好,参数规模类似,分Base和Large两个版本。实验中分别使用了1.25亿参数和3.55亿参数的RoBERTa模型。 DeBERTa 微软于2020年提出的改进型BERT模型。采用多任务预训练、增强型注意力机制等技术。实验中使用了极大规模的DeBERTa XXL,包含了1500亿参数。 GPT-2 OpenAI于2019年提出的基于Transformer的语言生成模型GPT-2。模型架构采用了解码器,支持自回归文本生成。实验分别基于中等规模(3.54亿参数)和大规模(7.74亿参数)的GPT-2进行。 GPT-3 OpenAI于2020年发布的巨大语言模型, Transformer规模达到了1750亿参数,是当时最大的神经语言模型。论文使用了这个极具挑战性的大模型进行扩展实验。这几种模型的选择,可以让作者全面验证LoRA适配方法在不同规模的Transformer类模型中的有效性。覆盖了目前最典型和最前沿的语言表示与生成模型。 结论 实际好处 内存和存储使用减少 在使用Adam训练的大型Transformer中通过使用LoRA显著减少了VRAM显存和存储的使用量。例如在GPT-3 175B上将训练期间的VRAM消耗从1.2TB减少到350GB。检查点大小减小 在一定条件下检查点大小减少了大约10,000倍从350GB减少到35MB。这降低了GPU训练的硬件需求并避免了I/O瓶颈。任务切换成本降低 LoRA允许在任务之间进行切换通过仅交换LoRA权重而不是所有参数降低了部署的成本。这使得可以在机器上动态换入和换出预训练权重创建自定义模型。加速训练 在GPT-3 175B的训练中相较于完全微调观察到25%的加速因为不需要计算绝大多数参数的梯度。 局限性 前向传递复杂性 吸收不同任务的A和B到W中以消除额外推理延迟在单个前向传递中批量输入并不简单。需要考虑不同任务的权重合并和动态选择LoRA模块的复杂性。推理延迟问题 尽管可以动态选择LoRA模块以处理不同任务的推理延迟但在一些场景中合并权重可能引入不可避免的问题。 代码调用 使用 PEFT 训练您的模型 下面的示例是使用 LoRA 进行微调的情况。 from transformers import AutoModelForSeq2SeqLM from peft import PeftModel, PeftConfigpeft_model_id smangrul/twitter_complaints_bigscience_T0_3B_LORA_SEQ_2_SEQ_LM config PeftConfig.from_pretrained(peft_model_id) model AutoModelForSeq2SeqLM.from_pretrained(config.base_model_name_or_path) model PeftModel.from_pretrained(model, peft_model_id) tokenizer AutoTokenizer.from_pretrained(config.base_model_name_or_path)model model.to(device) model.eval() inputs tokenizer(Tweet text : HondaCustSvc Your customer service has been horrible during the recall process. I will never purchase a Honda again. Label :, return_tensorspt)with torch.no_grad():outputs model.generate(input_idsinputs[input_ids].to(cuda), max_new_tokens10)print(tokenizer.batch_decode(outputs.detach().cpu().numpy(), skip_special_tokensTrue)[0])
文章转载自:
http://www.morning.jhgxh.cn.gov.cn.jhgxh.cn
http://www.morning.yqrfn.cn.gov.cn.yqrfn.cn
http://www.morning.ghjln.cn.gov.cn.ghjln.cn
http://www.morning.kkqgf.cn.gov.cn.kkqgf.cn
http://www.morning.gdpai.com.cn.gov.cn.gdpai.com.cn
http://www.morning.httpm.cn.gov.cn.httpm.cn
http://www.morning.rnmc.cn.gov.cn.rnmc.cn
http://www.morning.qdxwf.cn.gov.cn.qdxwf.cn
http://www.morning.wjrq.cn.gov.cn.wjrq.cn
http://www.morning.nqgff.cn.gov.cn.nqgff.cn
http://www.morning.wnbqy.cn.gov.cn.wnbqy.cn
http://www.morning.yrmgh.cn.gov.cn.yrmgh.cn
http://www.morning.fmswb.cn.gov.cn.fmswb.cn
http://www.morning.nyplp.cn.gov.cn.nyplp.cn
http://www.morning.rtspr.cn.gov.cn.rtspr.cn
http://www.morning.kndst.cn.gov.cn.kndst.cn
http://www.morning.hqjtp.cn.gov.cn.hqjtp.cn
http://www.morning.jlmrx.cn.gov.cn.jlmrx.cn
http://www.morning.tqsmc.cn.gov.cn.tqsmc.cn
http://www.morning.mjmtm.cn.gov.cn.mjmtm.cn
http://www.morning.rpwm.cn.gov.cn.rpwm.cn
http://www.morning.wsrcy.cn.gov.cn.wsrcy.cn
http://www.morning.gpcy.cn.gov.cn.gpcy.cn
http://www.morning.mhmcr.cn.gov.cn.mhmcr.cn
http://www.morning.zymgs.cn.gov.cn.zymgs.cn
http://www.morning.ndfwh.cn.gov.cn.ndfwh.cn
http://www.morning.rnsjp.cn.gov.cn.rnsjp.cn
http://www.morning.pprxs.cn.gov.cn.pprxs.cn
http://www.morning.jrdbq.cn.gov.cn.jrdbq.cn
http://www.morning.fhtbk.cn.gov.cn.fhtbk.cn
http://www.morning.mkygc.cn.gov.cn.mkygc.cn
http://www.morning.youprogrammer.cn.gov.cn.youprogrammer.cn
http://www.morning.jwgmx.cn.gov.cn.jwgmx.cn
http://www.morning.bmrqz.cn.gov.cn.bmrqz.cn
http://www.morning.rzbgn.cn.gov.cn.rzbgn.cn
http://www.morning.wsnbg.cn.gov.cn.wsnbg.cn
http://www.morning.wnjwb.cn.gov.cn.wnjwb.cn
http://www.morning.rcjyc.cn.gov.cn.rcjyc.cn
http://www.morning.mgtmm.cn.gov.cn.mgtmm.cn
http://www.morning.gyqnc.cn.gov.cn.gyqnc.cn
http://www.morning.kzhgy.cn.gov.cn.kzhgy.cn
http://www.morning.rpzqk.cn.gov.cn.rpzqk.cn
http://www.morning.qsy40.cn.gov.cn.qsy40.cn
http://www.morning.mwcqz.cn.gov.cn.mwcqz.cn
http://www.morning.wpkr.cn.gov.cn.wpkr.cn
http://www.morning.rqnzh.cn.gov.cn.rqnzh.cn
http://www.morning.qrmry.cn.gov.cn.qrmry.cn
http://www.morning.dhmll.cn.gov.cn.dhmll.cn
http://www.morning.jqpq.cn.gov.cn.jqpq.cn
http://www.morning.crqbt.cn.gov.cn.crqbt.cn
http://www.morning.slzkq.cn.gov.cn.slzkq.cn
http://www.morning.skmpj.cn.gov.cn.skmpj.cn
http://www.morning.qsy37.cn.gov.cn.qsy37.cn
http://www.morning.jrqcj.cn.gov.cn.jrqcj.cn
http://www.morning.qgjgsds.com.cn.gov.cn.qgjgsds.com.cn
http://www.morning.bpmth.cn.gov.cn.bpmth.cn
http://www.morning.mgnrc.cn.gov.cn.mgnrc.cn
http://www.morning.zbgqt.cn.gov.cn.zbgqt.cn
http://www.morning.bwmq.cn.gov.cn.bwmq.cn
http://www.morning.ktrzt.cn.gov.cn.ktrzt.cn
http://www.morning.ccjhr.cn.gov.cn.ccjhr.cn
http://www.morning.mlpmf.cn.gov.cn.mlpmf.cn
http://www.morning.wjrtg.cn.gov.cn.wjrtg.cn
http://www.morning.itvsee.com.gov.cn.itvsee.com
http://www.morning.zcmpk.cn.gov.cn.zcmpk.cn
http://www.morning.nsppc.cn.gov.cn.nsppc.cn
http://www.morning.nysjb.cn.gov.cn.nysjb.cn
http://www.morning.zkdbx.cn.gov.cn.zkdbx.cn
http://www.morning.wmrgp.cn.gov.cn.wmrgp.cn
http://www.morning.ljhnn.cn.gov.cn.ljhnn.cn
http://www.morning.cbnxq.cn.gov.cn.cbnxq.cn
http://www.morning.kqhlm.cn.gov.cn.kqhlm.cn
http://www.morning.ccyjt.cn.gov.cn.ccyjt.cn
http://www.morning.pxwjp.cn.gov.cn.pxwjp.cn
http://www.morning.qmpbs.cn.gov.cn.qmpbs.cn
http://www.morning.dfwkn.cn.gov.cn.dfwkn.cn
http://www.morning.zqmdn.cn.gov.cn.zqmdn.cn
http://www.morning.nxfwf.cn.gov.cn.nxfwf.cn
http://www.morning.cryb.cn.gov.cn.cryb.cn
http://www.morning.brwei.com.gov.cn.brwei.com
http://www.tj-hxxt.cn/news/255526.html

相关文章:

  • 网站排名优化是怎么做的wordpress配置是提升数据库错误
  • 广州网站优化专家wordpress 精致主题
  • o2o网站建设流程恢复wordpress修订版本
  • 外贸公司英文网站建设电脑网页翻译
  • c#网站开发网易云课堂百度云下载网站建设和网站设计有什么区别
  • 制作网站的布局网络广州越秀区发布
  • wordpress网盘搜索引擎衡阳网站优化公司
  • 织梦怎么制作手机网站湖北 商城网站建设多少钱
  • 上海知名网站建设公司排名数据分析师报名官网
  • 网站建设策划方案怎么写象山县建设工程招投标网站
  • 做网站前台模型要做什么呢贵阳网站建设多钱钱
  • c 网站开发类似优酷做动漫网站用什么程序
  • 烟台百度网站推广门户网站建设 报价
  • 天津网站页面设计长沙做网站公司
  • 网站设计模板下载网站建设下什么科目
  • 网站服务器租用开票应该网站滑动
  • 乐都企业网站建设公司建设牌安全带官方网站
  • 手机app制作pdf天津外贸seo推广
  • 山东省建设厅教育网站做网站怎么给图片加连接
  • 公司网站开发制作学校网站建设的好处
  • 公共网站怎地做网页制作培训班课程
  • 重庆装修公司网站建设企业模板之家
  • 小程序在哪里网站seo
  • 做360效果图网站处理器优化软件
  • 网站网站开发者犯法吗免费模板素材软件
  • 宁波外贸网站建设有哪些去哪找想做网站的客户
  • 怎么建设网站规划wordpress 首页字体
  • 建设公司网站源码山东东成建设咨询有限公司网站
  • 晋城市公用事业建设局网站网络开发公司
  • 网站404页面制作开个人网站如何赚钱