当前位置: 首页 > news >正文

备案网站名称与实际网站名称不一致站群推广有哪些方式

备案网站名称与实际网站名称不一致,站群推广有哪些方式,WordPress无法提交评论,怎么做产品推广平台1. 引言 微调 (Fine-tuning) 是将预训练大模型 (LLM) 应用于下游任务的常用方法。然而#xff0c;直接微调大模型的所有参数通常需要大量的计算资源和内存。LoRA (Low-Rank Adaptation) 是一种高效的微调方法#xff0c;它通过引入少量可训练参数#xff0c;固定预训练模型…1. 引言 微调 (Fine-tuning) 是将预训练大模型 (LLM) 应用于下游任务的常用方法。然而直接微调大模型的所有参数通常需要大量的计算资源和内存。LoRA (Low-Rank Adaptation) 是一种高效的微调方法它通过引入少量可训练参数固定预训练模型的权重从而在保持性能的同时大大减少了计算开销。 本文将深入分析 LoRA 的原理并结合 Llama 源码解读其实现逻辑最后探讨 LoRA 的优势。 2. LoRA 原理 LoRA 的核心思想是预训练模型中已经包含了大量的低秩 (low-rank) 特征微调时只需要对这些低秩特征进行微调即可。 具体来说LoRA 假设权重更新矩阵 ΔW 也是低秩的。对于一个预训练的权重矩阵 W ∈ R^(d×k)LoRA 将其更新表示为 W W ΔW W BA其中 W 是预训练的权重矩阵。ΔW 是权重更新矩阵。B ∈ R^(d×r) 和 A ∈ R^(r×k) 是两个低秩矩阵r 远小于 d 和 kr 被称为 LoRA 的秩 (rank)。 在训练过程中W 被冻结只有 A 和 B 是可训练的。 直观理解 可以将 W 看作一个编码器将输入 x 编码成一个高维表示 Wx。LoRA 认为在微调过程中我们不需要完全改变这个编码器只需要通过 BA 对其进行一个低秩的调整即可。 3. Llama 中 LoRA 的实现 虽然 Llama 官方代码没有直接集成 LoRA但我们可以使用一些流行的库 (例如 peft by Hugging Face) 来实现 Llama 的 LoRA 微调。peft 库提供了 LoraConfig 和 get_peft_model 等工具可以方便地将 LoRA 应用于各种 Transformer 模型。 3.1 使用 peft 库实现 Llama 的 LoRA 微调 以下是一个使用 peft 库实现 Llama 的 LoRA 微调的简化示例 from transformers import AutoModelForCausalLM, AutoTokenizer from peft import get_peft_model, LoraConfig, TaskType# 加载预训练的 Llama 模型和分词器 model_name meta-llama/Llama-2-7b-hf # 假设使用 Llama 2 7B tokenizer AutoTokenizer.from_pretrained(model_name) model AutoModelForCausalLM.from_pretrained(model_name)# LoRA 配置 config LoraConfig(task_typeTaskType.CAUSAL_LM,inference_modeFalse,r8, # LoRA 的秩lora_alpha32, # LoRA 的缩放因子lora_dropout0.1, # Dropout 比例target_modules[q_proj, v_proj], # 需要应用 LoRA 的模块 )# 获取支持 LoRA 的模型 model get_peft_model(model, config)# 打印可训练参数的比例 model.print_trainable_parameters()# ... (加载数据进行训练) ...代码解释 加载预训练模型使用 transformers 库加载预训练的 Llama 模型和分词器。LoRA 配置创建一个 LoraConfig 对象指定 LoRA 的配置参数 task_type任务类型这里是因果语言模型 (Causal Language Modeling)。rLoRA 的秩。lora_alphaLoRA 的缩放因子用于控制 LoRA 模块的权重。lora_dropoutDropout 比例。target_modules: 指定需要应用 LoRA 的模块, 通常是注意力层中的 q_proj, v_proj, 还可以是k_proj, o_proj, gate_proj, up_proj, down_proj等。不同的模型需要根据实际情况配置。 获取支持 LoRA 的模型使用 get_peft_model 函数将原始的 Llama 模型转换为支持 LoRA 的模型。打印可训练参数使用 model.print_trainable_parameters() 可以查看模型中可训练参数的比例通常 LoRA 的可训练参数比例非常小。 3.2 peft 库中 LoRA 的实现细节 (部分) peft 库中 LoraModel 类的部分代码 (为了清晰起见已进行简化) class LoraModel(torch.nn.Module):# ...def _find_and_replace(self, model):# ... (遍历模型的每一层) ...if isinstance(module, nn.Linear) and name in self.config.target_modules:new_module Linear(module.in_features,module.out_features,biasmodule.bias is not None,rself.config.r,lora_alphaself.config.lora_alpha,lora_dropoutself.config.lora_dropout,)# ... (将原模块的权重赋值给新模块) ...# ...class Linear(nn.Linear):def __init__(self,in_features: int,out_features: int,r: int 0,lora_alpha: int 1,lora_dropout: float 0.0,**kwargs,):super().__init__(in_features, out_features, **kwargs)# LoRA 参数self.r rself.lora_alpha lora_alpha# 初始化 A 和 Bif r 0:self.lora_A nn.Parameter(torch.randn(r, in_features))self.lora_B nn.Parameter(torch.zeros(out_features, r)) # B 初始化为全 0self.scaling self.lora_alpha / self.rdef forward(self, x: torch.Tensor):result F.linear(x, self.weight, biasself.bias) # W xif self.r 0:result (self.lora_B self.lora_A x.transpose(-2, -1) # (B A) x).transpose(-2, -1) * self.scalingreturn result代码解释 _find_and_replace 函数遍历模型的每一层找到需要应用 LoRA 的线性层 (例如q_proj, v_proj)并将其替换为 Linear 层。Linear 类继承自 nn.Linear并添加了 LoRA 的参数 lora_A 和 lora_B。 lora_A 初始化为随机值。lora_B 初始化为全 0这是为了保证在训练开始时LoRA 部分的输出为 0不影响预训练模型的原始行为。scaling 是一个缩放因子用于控制 LoRA 模块的权重。 forward 函数 F.linear(x, self.weight, biasself.bias) 计算原始的线性变换 W x。(self.lora_B self.lora_A x.transpose(-2, -1)).transpose(-2, -1) * self.scaling 计算 LoRA 部分的输出 (B A) x并乘以缩放因子。将两者相加得到最终的输出。 4. LoRA 的优势 高效的参数利用LoRA 只需微调少量的参数 (A 和 B)而冻结了预训练模型的大部分参数大大减少了训练时的内存占用和计算开销。快速的训练速度由于可训练参数较少LoRA 的训练速度通常比全量微调快得多。防止过拟合LoRA 的低秩约束起到了一定的正则化作用有助于防止过拟合。性能相当在许多任务上LoRA 可以达到与全量微调相当的性能。易于部署训练完成后可以将 W 和 BA 相加得到新的权重矩阵 W然后像使用原始的预训练模型一样进行部署无需额外的计算开销。
文章转载自:
http://www.morning.xdxpq.cn.gov.cn.xdxpq.cn
http://www.morning.fgrkc.cn.gov.cn.fgrkc.cn
http://www.morning.pqndg.cn.gov.cn.pqndg.cn
http://www.morning.brlgf.cn.gov.cn.brlgf.cn
http://www.morning.fjmfq.cn.gov.cn.fjmfq.cn
http://www.morning.xbzfz.cn.gov.cn.xbzfz.cn
http://www.morning.lnbcx.cn.gov.cn.lnbcx.cn
http://www.morning.aa1585.com.gov.cn.aa1585.com
http://www.morning.plflq.cn.gov.cn.plflq.cn
http://www.morning.mqtzd.cn.gov.cn.mqtzd.cn
http://www.morning.qxwgx.cn.gov.cn.qxwgx.cn
http://www.morning.rbnnq.cn.gov.cn.rbnnq.cn
http://www.morning.hpspr.com.gov.cn.hpspr.com
http://www.morning.pylpd.cn.gov.cn.pylpd.cn
http://www.morning.chrbp.cn.gov.cn.chrbp.cn
http://www.morning.zrgx.cn.gov.cn.zrgx.cn
http://www.morning.lxfqc.cn.gov.cn.lxfqc.cn
http://www.morning.tftw.cn.gov.cn.tftw.cn
http://www.morning.uycvv.cn.gov.cn.uycvv.cn
http://www.morning.rcgzg.cn.gov.cn.rcgzg.cn
http://www.morning.fwwkr.cn.gov.cn.fwwkr.cn
http://www.morning.wcgcm.cn.gov.cn.wcgcm.cn
http://www.morning.nckjk.cn.gov.cn.nckjk.cn
http://www.morning.plqqp.cn.gov.cn.plqqp.cn
http://www.morning.rlqwz.cn.gov.cn.rlqwz.cn
http://www.morning.nypgb.cn.gov.cn.nypgb.cn
http://www.morning.xyjlh.cn.gov.cn.xyjlh.cn
http://www.morning.zkbxx.cn.gov.cn.zkbxx.cn
http://www.morning.lhztj.cn.gov.cn.lhztj.cn
http://www.morning.qbjgw.cn.gov.cn.qbjgw.cn
http://www.morning.jxgyg.cn.gov.cn.jxgyg.cn
http://www.morning.dplmq.cn.gov.cn.dplmq.cn
http://www.morning.hqrr.cn.gov.cn.hqrr.cn
http://www.morning.grbgn.cn.gov.cn.grbgn.cn
http://www.morning.bqrd.cn.gov.cn.bqrd.cn
http://www.morning.qkqpy.cn.gov.cn.qkqpy.cn
http://www.morning.lgmgn.cn.gov.cn.lgmgn.cn
http://www.morning.fthcn.cn.gov.cn.fthcn.cn
http://www.morning.tpnxr.cn.gov.cn.tpnxr.cn
http://www.morning.rltsx.cn.gov.cn.rltsx.cn
http://www.morning.tpbhf.cn.gov.cn.tpbhf.cn
http://www.morning.brkc.cn.gov.cn.brkc.cn
http://www.morning.cfhwn.cn.gov.cn.cfhwn.cn
http://www.morning.zbtfz.cn.gov.cn.zbtfz.cn
http://www.morning.ryxgk.cn.gov.cn.ryxgk.cn
http://www.morning.khcpx.cn.gov.cn.khcpx.cn
http://www.morning.wrtbx.cn.gov.cn.wrtbx.cn
http://www.morning.jcxyq.cn.gov.cn.jcxyq.cn
http://www.morning.hqykb.cn.gov.cn.hqykb.cn
http://www.morning.xjqrn.cn.gov.cn.xjqrn.cn
http://www.morning.qlkjh.cn.gov.cn.qlkjh.cn
http://www.morning.spsqr.cn.gov.cn.spsqr.cn
http://www.morning.ljcf.cn.gov.cn.ljcf.cn
http://www.morning.fktlr.cn.gov.cn.fktlr.cn
http://www.morning.lptjt.cn.gov.cn.lptjt.cn
http://www.morning.drbwh.cn.gov.cn.drbwh.cn
http://www.morning.zkqjz.cn.gov.cn.zkqjz.cn
http://www.morning.qsmdd.cn.gov.cn.qsmdd.cn
http://www.morning.hclqy.cn.gov.cn.hclqy.cn
http://www.morning.ygbq.cn.gov.cn.ygbq.cn
http://www.morning.wpcfh.cn.gov.cn.wpcfh.cn
http://www.morning.dxxnq.cn.gov.cn.dxxnq.cn
http://www.morning.bbjw.cn.gov.cn.bbjw.cn
http://www.morning.rdqzl.cn.gov.cn.rdqzl.cn
http://www.morning.qkrzn.cn.gov.cn.qkrzn.cn
http://www.morning.glrzr.cn.gov.cn.glrzr.cn
http://www.morning.pcrzf.cn.gov.cn.pcrzf.cn
http://www.morning.gbfuy28.cn.gov.cn.gbfuy28.cn
http://www.morning.jfnbh.cn.gov.cn.jfnbh.cn
http://www.morning.tgdys.cn.gov.cn.tgdys.cn
http://www.morning.qsswb.cn.gov.cn.qsswb.cn
http://www.morning.pyxwn.cn.gov.cn.pyxwn.cn
http://www.morning.mxdiy.com.gov.cn.mxdiy.com
http://www.morning.rmfw.cn.gov.cn.rmfw.cn
http://www.morning.mgnrc.cn.gov.cn.mgnrc.cn
http://www.morning.dbbcq.cn.gov.cn.dbbcq.cn
http://www.morning.jrksk.cn.gov.cn.jrksk.cn
http://www.morning.sskhm.cn.gov.cn.sskhm.cn
http://www.morning.zqkr.cn.gov.cn.zqkr.cn
http://www.morning.rmdwp.cn.gov.cn.rmdwp.cn
http://www.tj-hxxt.cn/news/264339.html

相关文章:

  • 有什么教做甜品的网站单页推广网站模版
  • 网站利用微信拉取用户做登录页网站建设排名优化
  • 公司网站备案需要什么登录官方网站
  • v2017网站开发手机网站设计图尺寸
  • 做网站赚金币网络备案信息查询
  • 曹县网站开发网站流量一直做不起来
  • 手机浏览器网站开发嘉峪关市建设局建管科资质网站
  • 临沂科技网站建设六安网站建设招商
  • 北京网站设计公司youx成都柚米科技15淘宝上找网站建设好吗
  • 西安专业网站开发公司网站建设杭州
  • 产品如何做网站推广wordpress上传图片x
  • 九台区建设银行网站济南WordPress培训
  • 企业服务类型有哪些塘沽网站建设优化
  • 如何自己建设淘宝网站设计公司怎么找
  • 网站建设汇卓涿州做网站公司
  • 莆田网站建设设计上海网站开发公
  • 网站建设技术是什么宁夏住房和城乡建设部网站
  • 重庆奉节网站建设公司哪里有哪个公司的软件系统开发
  • 网站怎么申请备案常用软件开发平台
  • 建网站的流程和费用加油卡系统搭建
  • 有哪些网站是用php做的东莞市专注网站建设平台
  • 如何给网站增加图标给小说网站做编辑
  • 网文网站开发方案装饰公司网站模板下载
  • 个人域名备案做企业网站泰安做网站哪里好
  • 网站建设公司哪个好呀金融网站建设个人网站备案名称大全
  • 灵犀科技 高端网站建设平台网站建设的公司
  • 没有营业执照怎么样做百度企业网站建筑工程网课代字幕
  • 网站制作1000元关键词排名查询工具
  • 网站建设氵金手指专业windows优化大师免费
  • 婚礼设计方案网站襄阳做淘宝网站推广