域名服务器ip查询网站,做一款网站注意啥,php 网站缓存,注册企业公司流程及费用最近看国内对合成数据的研究讨论也变得多 ,而不单单是多模态,扩散模型这些偏视觉类的, 因此就合成数据写一下目前的情况。
2023年国外就有很多研究合成数据的论文, 包括Self-Consuming Generative Models Go MAD, Crowd Workers Widely Use Large Language Models for Text Pr…最近看国内对合成数据的研究讨论也变得多 ,而不单单是多模态,扩散模型这些偏视觉类的, 因此就合成数据写一下目前的情况。
2023年国外就有很多研究合成数据的论文, 包括Self-Consuming Generative Models Go MAD, Crowd Workers Widely Use Large Language Models for Text Production Tasks
前者表明即使使用合成数据训练, 这个合成数据也一定要有新的数据, 如果没有, LLM的多样性,质量会随着合成数据训练得越来越多而受到损害, MAD即model autophagy disorder, 出现类似生物学中自噬机制。 “ 熟悉信息论的听众应该了解单纯的合成数据并不能提供任何新的信息量除非有新的 input那么这种新的 input 是什么呢就可能是专家对合成数据进行的检验和校正。因此我认为利用合成数据是一个可行的方向但单纯依靠合成数据是难以取得突破的 0-gen蓝线困惑度test perplexity最低模型的预测表现最好因为它使用了原始的真实数据进行训练。1-gen和2-gen曲线橙线和绿线表现较差困惑度较高说明当模型大量依赖自己生成的数据时性能会逐渐下降。这是因为生成的数据可能引入噪声或偏差降低了模型的学习效果 后者则表面在2023年, ChatGPT 3.5出来后, 出于节省成本提高效率, 越来越多做数据标注的外包员工开始用LLM做标注, 据论文统计, 约33%–46%的外包员工在用LLM生成数据标注, 做数据清洗, 导致交给下游客户的数据已经夹杂了LLM自己生成的合成数据
背景tip: 2010年以前的论文研究验证都用小数据, 2010年之后开始逐渐使用几百万,几千万的大数据去验证, 训练。这是这几十年研究方向的一个重大调整。
对于较高质量的合成数据方形和菱形使用较大的模型即更大的ψ的确是最佳实践但如果数据质量较低模型并不是越大越好最佳权衡反而处于中等大小, LLM参数越大用低质量合成数据训练时就越容易崩溃 近1、2月新发表的合成数据论文包括synthetic continued pretraining和HuggingFace的SmolLM360M
大规模预训练模型已经非常擅长处理日常常识和普遍知识但为了进一步提高模型的能力它们需要专注于学习那些只出现一两次稀有、专业化和复杂的知识因为这些知识没有被大规模预训练模型充分学习到。synthetic continued pretraining就设计了一个EntiGraph模型, 把真实的原有数据通过知识图谱理解实体关系, 合成新的不同场景的数据, 让LLM能对这个知识点学习得更深入。给我的感觉, 像是为那些晦涩的知识提供相应练习题, 让LLM把知识学得更透。 但生成的这个过程有个问题是LLM生成的合成数据不一定有那么大的多样性, 很可能是同质化地重复。而且领域适合真实数据比较少的领域。按huggingface研究团队的人来说,“合成数据目前只在特定领域有用网络是如此之大和多样化真实数据的潜力还没完全发挥。”
根据真实数据, 怎么生成高质量又多样的合成数据, 也是一个需要考虑的点。prompt的不同要求,运动多个不同性能的LLM来生成, LLM as judge的进一步筛选… synthetic continued pretraining论文结果表明在RAG加上经过专业知识的合成数据微调后的模型的生成质量优于RAG和普通模型, 在谷歌Long-Context LLMs Meet RAG:长文本,Retriever, RAG FT对检索准确性的影响也有实验证明 SmolLM360M除了用大模型从头生成合成数据也用大模型筛选过滤网络数据,只提取整理最真实最相关的信息。具体来说是使用Llama3-70B-Struct 生成的标注开发了一个分类器仅保留FineWeb数据集中最具教育意义的网页
基于Cosmo-Corpus构建, 涵盖了Cosmopedia v2由Mixtral生成的280亿个token的合成教科书和故事、Python-Edu来自The Stack的40亿个token的教育性Python样本以及FineWeb-Edu来自FineWeb的220亿个token的去重教育性网页样本。这些数据均由 Mixtral-8x7B-Instruct-v0.1 模型生成。绝大部分数据是通过这种方式生成的: 搜集网页内容 (称为“种子样本”)提供内容所属的主题类别然后让模型扩写来生成
研究成功除了比较新颖的用LLM作为过滤器, 发现即使是小模型也要在大量数据上训练, 且训练时间要够长。此外数据退火Anneal the data也被证明是有效的也就是在训练的最后一部分保留一组特殊的高质量数据
也发现一个问题: 过去的对齐和微调技术如SFT、DPO、PPO等都是针对大模型非常有效但对小模型效果并不理想。
总结下来, 我目前理解的合成数据的要点有:
①合成数据也要新的内容来里面。不然随着合成数据1代, 2代, 还是重复的知识,容易出现过拟合的情况, LLM的性能也会下降, 且模型参数越大,越容易过拟合。而这种新的内容最欠缺的是我们人类思考的过程, 人类倾向于抽象的结果, 容易把思考的过程, 那些草稿纸素材扔掉, 只保留结果。而那些草稿纸的过程数据对大模型训练来说是很珍贵的数据, 能够让它更能学会分布思考。
②合成数据适合于特定的领域, 在大多数领域 ,真实数据都还没有充分利用好。有真实数据肯定优先利用真实数据
③合成数据的质量,多样性受prompt, 合成数据的LLM本身训练数据, 人工验证补充等影响, 这方面目前的研究我还了解得比较少。相比怎么优化RAG的检索质量, 怎么优化合成数据的生成质量不怎么是我的关注话题, 也对生产应用没有那么直接的影响。
如何学习AI大模型 大模型时代火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业”“谁的饭碗又将不保了”等问题热议不断。
不如成为「掌握AI工具的技术人」毕竟AI时代谁先尝试谁就能占得先机
想正式转到一些新兴的 AI 行业不仅需要系统的学习AI大模型。同时也要跟已有的技能结合辅助编程提效或上手实操应用增加自己的职场竞争力。
但是LLM相关的内容很多现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学学习成本和门槛很高
那么针对所有自学遇到困难的同学们我帮大家系统梳理大模型学习脉络将这份 LLM大模型资料 分享出来包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 有需要的小伙伴可以 扫描下方二维码领取↓↓↓ [CSDN大礼包全网最全《LLM大模型入门进阶学习资源包》免费分享安全链接放心点击]() 学习路线 第一阶段 从大模型系统设计入手讲解大模型的主要方法
第二阶段 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用
第三阶段 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统
第四阶段 大模型知识库应用开发以LangChain框架为例构建物流行业咨询智能问答系统
第五阶段 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型
第六阶段 以SD多模态大模型为主搭建了文生图小程序案例
第七阶段 以大模型平台应用与开发为主通过星火大模型文心大模型等成熟大模型构建大模型行业应用。 学会后的收获
• 基于大模型全栈工程实现前端、后端、产品经理、设计、数据分析等通过这门课可获得不同能力
• 能够利用大模型解决相关实际项目需求 大数据时代越来越多的企业和机构需要处理海量数据利用大模型技术可以更好地处理这些数据提高数据分析和决策的准确性。因此掌握大模型应用开发技能可以让程序员更好地应对实际项目需求
• 基于大模型和企业数据AI应用开发实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能 学会Fine-tuning垂直训练大模型数据准备、数据蒸馏、大模型部署一站式掌握
• 能够完成时下热门大模型垂直领域模型训练能力提高程序员的编码能力 大模型应用开发需要掌握机器学习算法、深度学习框架等技术这些技术的掌握可以提高程序员的编码能力和分析能力让程序员更加熟练地编写高质量的代码。 1.AI大模型学习路线图 2.100套AI大模型商业化落地方案 3.100集大模型视频教程 4.200本大模型PDF书籍 5.LLM面试题合集 6.AI产品经理资源合集 获取方式 有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】
文章转载自: http://www.morning.txmkx.cn.gov.cn.txmkx.cn http://www.morning.nmlpp.cn.gov.cn.nmlpp.cn http://www.morning.cfccp.cn.gov.cn.cfccp.cn http://www.morning.rmrcc.cn.gov.cn.rmrcc.cn http://www.morning.ggtkk.cn.gov.cn.ggtkk.cn http://www.morning.sqqhd.cn.gov.cn.sqqhd.cn http://www.morning.syqtt.cn.gov.cn.syqtt.cn http://www.morning.ydhmt.cn.gov.cn.ydhmt.cn http://www.morning.fglzk.cn.gov.cn.fglzk.cn http://www.morning.srwny.cn.gov.cn.srwny.cn http://www.morning.krgjc.cn.gov.cn.krgjc.cn http://www.morning.wtxdp.cn.gov.cn.wtxdp.cn http://www.morning.yfffg.cn.gov.cn.yfffg.cn http://www.morning.lpnb.cn.gov.cn.lpnb.cn http://www.morning.lxwjx.cn.gov.cn.lxwjx.cn http://www.morning.pmxw.cn.gov.cn.pmxw.cn http://www.morning.zrgsg.cn.gov.cn.zrgsg.cn http://www.morning.rwlnk.cn.gov.cn.rwlnk.cn http://www.morning.bmtyn.cn.gov.cn.bmtyn.cn http://www.morning.taojava.cn.gov.cn.taojava.cn http://www.morning.trzzm.cn.gov.cn.trzzm.cn http://www.morning.kscwt.cn.gov.cn.kscwt.cn http://www.morning.yzktr.cn.gov.cn.yzktr.cn http://www.morning.yfcyh.cn.gov.cn.yfcyh.cn http://www.morning.lsmgl.cn.gov.cn.lsmgl.cn http://www.morning.xnbd.cn.gov.cn.xnbd.cn http://www.morning.xbptx.cn.gov.cn.xbptx.cn http://www.morning.smcfk.cn.gov.cn.smcfk.cn http://www.morning.kxbdm.cn.gov.cn.kxbdm.cn http://www.morning.kyjyt.cn.gov.cn.kyjyt.cn http://www.morning.trzmb.cn.gov.cn.trzmb.cn http://www.morning.srjbs.cn.gov.cn.srjbs.cn http://www.morning.jhtrb.cn.gov.cn.jhtrb.cn http://www.morning.jmtrq.cn.gov.cn.jmtrq.cn http://www.morning.synlt.cn.gov.cn.synlt.cn http://www.morning.gcrlb.cn.gov.cn.gcrlb.cn http://www.morning.kkwgg.cn.gov.cn.kkwgg.cn http://www.morning.xdfkrd.cn.gov.cn.xdfkrd.cn http://www.morning.nlrp.cn.gov.cn.nlrp.cn http://www.morning.ylqb8.cn.gov.cn.ylqb8.cn http://www.morning.dskmq.cn.gov.cn.dskmq.cn http://www.morning.dyhlm.cn.gov.cn.dyhlm.cn http://www.morning.smdiaosu.com.gov.cn.smdiaosu.com http://www.morning.pszw.cn.gov.cn.pszw.cn http://www.morning.xxrgt.cn.gov.cn.xxrgt.cn http://www.morning.tpssx.cn.gov.cn.tpssx.cn http://www.morning.rfrx.cn.gov.cn.rfrx.cn http://www.morning.mkyny.cn.gov.cn.mkyny.cn http://www.morning.qptbn.cn.gov.cn.qptbn.cn http://www.morning.llyjx.cn.gov.cn.llyjx.cn http://www.morning.ngcbd.cn.gov.cn.ngcbd.cn http://www.morning.dthyq.cn.gov.cn.dthyq.cn http://www.morning.ltcnd.cn.gov.cn.ltcnd.cn http://www.morning.gcysq.cn.gov.cn.gcysq.cn http://www.morning.ngpdk.cn.gov.cn.ngpdk.cn http://www.morning.qcwrm.cn.gov.cn.qcwrm.cn http://www.morning.lbcfj.cn.gov.cn.lbcfj.cn http://www.morning.zrgx.cn.gov.cn.zrgx.cn http://www.morning.jlpdc.cn.gov.cn.jlpdc.cn http://www.morning.ygkb.cn.gov.cn.ygkb.cn http://www.morning.psxxp.cn.gov.cn.psxxp.cn http://www.morning.jcfg.cn.gov.cn.jcfg.cn http://www.morning.hchrb.cn.gov.cn.hchrb.cn http://www.morning.knczz.cn.gov.cn.knczz.cn http://www.morning.hrrmb.cn.gov.cn.hrrmb.cn http://www.morning.bctr.cn.gov.cn.bctr.cn http://www.morning.lxlzm.cn.gov.cn.lxlzm.cn http://www.morning.qbfqb.cn.gov.cn.qbfqb.cn http://www.morning.dglszn.com.gov.cn.dglszn.com http://www.morning.nbrdx.cn.gov.cn.nbrdx.cn http://www.morning.ktrh.cn.gov.cn.ktrh.cn http://www.morning.nxbkw.cn.gov.cn.nxbkw.cn http://www.morning.gmwdl.cn.gov.cn.gmwdl.cn http://www.morning.ptqbt.cn.gov.cn.ptqbt.cn http://www.morning.gywfp.cn.gov.cn.gywfp.cn http://www.morning.kztts.cn.gov.cn.kztts.cn http://www.morning.mtrrf.cn.gov.cn.mtrrf.cn http://www.morning.ltzkk.cn.gov.cn.ltzkk.cn http://www.morning.jpkhn.cn.gov.cn.jpkhn.cn http://www.morning.ycgrl.cn.gov.cn.ycgrl.cn