当前位置: 首页 > news >正文

外卖网站怎么做北京企业网站案例

外卖网站怎么做,北京企业网站案例,东莞招聘网站,怎么看网站有没有被k在人工智能领域#xff0c;大语言模型#xff08;Large Language Model#xff0c;LLM#xff09;的兴起和广泛应用#xff0c;为自然语言处理#xff08;NLP#xff09;带来了前所未有的变革。Qwen1.5大语言模型作为其中的佼佼者#xff0c;不仅拥有强大的语言生成和理…在人工智能领域大语言模型Large Language ModelLLM的兴起和广泛应用为自然语言处理NLP带来了前所未有的变革。Qwen1.5大语言模型作为其中的佼佼者不仅拥有强大的语言生成和理解能力而且能够通过微调fine-tuning来适应各种特定场景和任务。本文将带领大家深入实战探索如何对Qwen大语言模型进行微调以满足实际应用的需求。 一、了解Qwen1.5大语言模型 Qwen1.5模型是Qwen的升级版也是Qwen2的测试版。它与Qwen类似是只有一个decoder解码器的 transformer 模型具有SwiGLU激活、RoPE、multi-head attention多头注意力。 Qwen1.5有7个模型尺寸0.5B, 1.8B, 4B, 7B, 14B, 72B 模型还外加 14B (A2.7B) MoE 模型。chat 聊天模型的质量得到明显提高在 base 模型和 chat 模型支持多语言的能力中文英文等支持 32768 tokens 的上下文长度所有模型启用System prompts可以进行角色扮演不再需要 trust_remote_code 二、微调GPU资源评估和环境准备 这里我使用 Llama-Factory 训练框架来对 Qwen1.5 来进行微调微调的方法可以使用 LoRA 或 QLoRA可以大大节省GPU资源。具体的 Llama-Factory 环境搭建方法可以看官方链接https://github.com/hiyouga/LLaMA-Factory 三、准备微调数据集和预训练模型 1数据集准备 微调数据集是微调过程中的关键。我们需要根据具体任务的需求收集并整理相关的数据。这些数据应该包含输入和对应的输出以便模型在训练过程中学习如何从输入中生成期望的输出。这里我使用一些公开的数据集来进行微调。 Alpaca GPT4 (enzh) Stanford Alpaca (en) Stanford Alpaca (zh) Self Cognition (zh) 更多的数据集请看链接GitHub - hiyouga/LLaMA-Factory: Unify Efficient Fine-Tuning of 100 LLMs 2Pre-training 模型准备 直接在 huggingface 下载下载地址Qwen 如果自己网络无法访问 huggingface 也可以使用 HF-Mirror - Huggingface 镜像站 来进行下载也可以。 四、模型微调训练 (1)运行打开web ui 界面 按照 LLaMA-Factory 里面的教程搭建好环境之后就可以开始对模型进行微调了执行以下命令来启动web ui 界面来进行微调 cd LLaMA-Factoryexport CUDA_VISIBLE_DEVICES0 # use gpu0 python src/train_web.py # or python -m llmtuner.webui.interface 如果想修改 网页服务的地址和端口号直接在 src/train_web.py 修改就可以了。这里也可以代码中的 share 设置为True 就可以把本地网络的web ui 界面作为一个 public 链接分享出去。 from llmtuner import create_uidef main():create_ui().queue().launch(server_name127.0.0.1, server_port6006, shareTrue, inbrowserTrue)if __name__ __main__:main() 2配置训练参数 然后根据的要求来进行配置我的配置如下 模型名称 Qwen1.5-7B-Chat 模型路径填写自己本地下载的模型的路径或者 Hugging Face 路径 微调方法可以选用 lora, freeze, full 等 量化等级选择 none不进行量化也可以启用 4/8 bit 模型量化即 QLoRA 提示模板qwen 训练阶段Supervised Fine-Tuning也可以选 Reward Modeling, PPO, DPO, Pre-training等 数据路径数据所在文件夹默认为项目中的 data 文件夹 数据集提取了 data 文件夹中的 *.json 文件可直接选择。选择完成之后点一下“预览数据集”确认自己的数据是否正确。 其他的参数比如 学习率、训练轮数epoch、批处理大小、学习率调节器 等都是深度学习训练常见的参数可以根据自己的情况选择就好。这里我使用默认的参数。 LoRA 参数设置中可以修改 lora 秩的大小缩放系数权重随机丢弃的概率等参数这里我保持默认。 所有的参数都配置好之后点一下“预览命令”确认命令没有问题之后就可以点击“开始”进行训练了。训练的过程中可以看到 loss的变化曲线、训练耗时等。 五、模型微调效果测试 微调完成后我们需要对微调后的模型进行评估以了解其在实际任务中的性能表现。也可以在web ui 界面直接进行对话体验。 在“模型路径”中输入原始模型路径然后在“适配器路径”中选择自己微调得到的 adapter 路径然后点击“加载模型”就可以开始对话聊天了。 通过终端窗口可以看到模型成功加载 对话聊天 参考 1. GitHub - hiyouga/LLaMA-Factory: Unify Efficient Fine-Tuning of 100 LLMs 2.  GitHub - QwenLM/Qwen1.5: Qwen1.5 is the improved version of Qwen, the large language model series developed by Qwen team, Alibaba Cloud. 3.  快速上手LLaMa-Factory最新微调实践轻松实现专属大模型-CSDN博客
http://www.tj-hxxt.cn/news/223466.html

相关文章:

  • 高中信息技术课程做网站网站宣传图
  • 学网站维护怎么改一个网站的关键词密度
  • 个人做众筹网站合法吗wordpress更换域名后台登不进去
  • 建设银行儿童网站2345网址导航站
  • 网站设计制作厂家有哪些网站为什么要seo
  • 洛阳微信平台网站建设推荐一个免费网站
  • 小馋网站建设书专业的营销型网站建设价格
  • 苗木网站素材佛山网站建设业务员
  • 企业网站一般要素即墨区城乡建设局网站官网
  • 好的网站有哪些灰色关键词排名代发
  • wordpress付费建站北京城建建设工程有限公司网站
  • 哈尔滨网站建设吧网站页面太多怎么做网站地图
  • 网站图片移动怎么做的自己做视频的网站吗
  • 工程建设标准化期刊网站最近三天的新闻大事国内
  • 校园安全网站建设如何优化移动端网站
  • 企业网站制作 厦门如何把wordpress的文章页写成模板
  • 快速微信网站设计工信部信息备案网站查询系统
  • 网站根目录相对路径做网站赚大钱
  • 大一学生做的网站校园网站素材
  • 商城网站规划百度收录的网页数量
  • php律师网站源码免费推广软件平台
  • 做纸巾定制的网站龙口网站建设公司报价
  • 网站建设推广案例如何一个空间放两个网站
  • 网站建设工作部署会赣州建设培训网官网
  • 哪里查询网站备案网站开发职业访谈
  • html个人网站设计模板安徽seo网络优化师
  • 推广发帖网站企业公示信息查询系统江西
  • 网页制作与网站建设成都武侯区建设厅官方网站
  • 静态网站的建设lnmp搬家wordpress
  • 东莞做网站 汇卓商标设计网标志设计