当前位置: 首页 > news >正文

网站后台 设计南昌一建集团有限公司

网站后台 设计,南昌一建集团有限公司,网站前端切页面时间,请人做网站安全之前是写在[Instruction-tuning#xff08;指令微调#xff09;]里的#xff0c;抽出来单独讲一下。 基本原理 在做下游的任务时#xff0c;我们发现GPT-3有很强大的能力#xff0c;但是只要人类说的话不属于GPT-3的范式#xff0c;他几乎无法理解。例如#xff0c;我们…之前是写在[Instruction-tuning指令微调]里的抽出来单独讲一下。 基本原理 在做下游的任务时我们发现GPT-3有很强大的能力但是只要人类说的话不属于GPT-3的范式他几乎无法理解。例如我们说把句子A变成句子B这种到底是机器翻译呢还是同语言的转述都需要让GPT-3学习到才是可以的。 InstructGPT/ChatGPT都是采用了GPT-3的网络结构通过指示学习构建训练样本来训练一个反应预测内容效果的奖励模型RM最后通过这个奖励模型的打分来指导强化学习模型的训练。 InstructGPT采用基于人类反馈的强化学习RLHF来不断微调预训练语言模型旨在让模型能够更好地理解人类的命令和指令含义如生成小作文、回答知识问题和进行头脑风暴等。该方法不仅让模型学会判断哪些答案是优质的而且可以确保生成的答案富含信息、内容丰富、对用户有帮助、无害和不包含歧视信息等多种标准。 新训练范式RLHF 大型语言模型 (Large Language ModelLLM) 生成领域的新训练范式RLHF (Reinforcement Learning from Human Feedback) 即以强化学习方式依据人类反馈优化语言模型。RLHF最早可以追溯到Google在2017年发表的《Deep Reinforcement Learning from Human Preferences》它通过人工标注作为反馈提升了强化学习在模拟机器人以及雅达利游戏上的表现效果。 RLHF是旨在人类对语言模型的指令与人类意图对齐并生成无负面影响结果的技术。该算法在强化学习框架下实现分为奖励模型训练和生成策略优化两个阶段。[Training an agent manually via evaluative reinforcement] 训练流程 Step1根据采集的SFT数据集对GPT-3进行有监督的微调Supervised FineTuneSFT 首先从测试用户提交的 prompt 中随机抽取一批然后请专业的标注人员为这些 prompt 给出高质量答案。接下来我们使用这些prompt,answer数据来Fine-tune GPT-3模型以使其初步具备理解人类prompt中所包含意图并根据这个意图给出相对高质量回答的能力。虽然这个过程是有效的但显然这还不足以解决所有问题此时的SFT模型在遵循指令/对话方面已经优于 GPT-3但不一定符合人类偏好。 这一步骤中包含了1.2万条训练demonstration数据其包括prompt和labeled answer。SFT数据一部分来自使用OpenAI的PlayGround的用户另一部分来自OpenAI雇佣的40名标注工labeler并且他们对labeler进行了培训。在这个数据集中标注工的工作是根据内容自己编写指示并且要求编写的指示满足下面三点简单任务labeler给出任意一个简单的任务同时要确保任务的多样性Few-shot任务labeler给出一个指示以及该指示的多个查询-响应对用户相关的从接口中获取用例然后让labeler根据这些用例编写指示。 这里使用余弦学习率衰减和残差 dropout 为0.2进行了16个epoch的训练根据验证集上的RM分数进行最终的SFT模型选择。论文发现SFT模型在第1个epoch后会出现过拟合情况然而后来实验发现训练更多的epoch会提高RM分数和人类偏好评分尽管会出现过拟合所以看来过拟合即使出现也不影响最终的学习结果。 Step2收集人工标注的对比数据训练奖励模型Reword ModelRM 具体地Fine-tuning完之后再给一个prompt让SFT模型生成出若干结果通过人工为其排序可以得到标注的排序pair基于标注的排序结果来自于Human Feedback训练一个Reward Model。 Step3使用RM作为强化学习的优化目标利用PPO算法微调SFT模型 使用第二步训练得到的reward model和PPO算法对第一步的模型进行 fine-tune。具体地用生成出来的结果训练SFT并通过强化学习的PPO方法最大化SFT生成出排序靠前的answer。 base模型是绿色的RL Policy是灰色的 奖励模型RM 因为训练RM的数据是一个labeler根据生成结果排序的形式所以它可以看做一个回归模型。RM结构是将SFT训练后的模型的最后的嵌入层去掉后的模型。 RM模型接受输入prompt,answer给出评价回答质量高低的奖励值——回报分数Score。 具体的讲对弈每个promptInstructGPT/ChatGPT会随机生成K个输出 4≤K≤9 可通过beam search等方法然后它们向每个labeler成对的展示输出结果也就是每个prompt共展示个结果然后用户从中选择效果更好的输出。 在训练时对多个排序结果两两组合形成多个训练数据对。接下来研究者使用这个排序结果数据进行pair-wise learning to rank训练模式训练回报模型。对于一对训练数据调节参数使得高质量回答的打分比低质量的打分要高。 奖励模型的损失函数最大化labeler更喜欢的响应和不喜欢的响应之间的差值。 另外InstructGPT/ChatGPT将每个prompt的个响应对作为一个batch这种按prompt为batch的训练方式要比传统的按样本为batch的方式更不容易过拟合因为这种方式每个prompt会且仅会输入到模型中一次。作者也尝试了shuffle这样很容易过拟合 PPO-ptx模型 通过第2步得到的奖励模型来指导SFT模型的继续训练。 强化学习的三要素策略policy、动作空间action space和奖励函数reward function。策略就是基于该语言模型接收 prompt 作为输入然后输出一系列文本或文本的概率分布动作空间就是词表所有 token 在所有输出位置的排列组合单个位置通常有50k左右的token候选奖励函数reward则是基于训好的RM模型计算得到初始reward再叠加上一个约束项来观察空间则是可能的输入token序列即prompt为词表所有token在所有输入位置的排列组合。 InstructGPT的PPO数据没有进行标注它均来自GPT-3的API的用户。既又不同用户提供的不同种类的生成任务其中占比最高的包括生成任务45.6%QA12.4%头脑风暴11.2%对话8.4%等。 PPO-ptx模型训练目标 随着模型的更新强化学习模型产生的数据和训练奖励模型的数据的差异会越来越大。作者的解决方案是在损失函数中加入KL惩罚项  来确保PPO模型的输出和SFT的输出差距不会很大。只用PPO模型进行训练的话会导致模型在通用NLP任务上性能的大幅下降作者的解决方案是在训练目标中加入了通用的语言模型目标 这个变量在论文中被叫做PPO-ptx。 初始化时期望在训练πϕ时能够最大化reward的得分。 为什么不用 Reward-Model 的数据直接fine-tune而用 RL 用 supervised finetunesft很容易做到返回“我不知道”但是很难让模型不去编内容。或者说在标注的时候对于一个模型不会的问题标注员应该要标注为“不知道”而不是给一个回答不然 sft 的时候相当于训练模型怎么编答案。         我们最好划出一个边界哪些是模型不知道的哪些是知道但是不确定的哪些是知道的并通过训练加强这些不同分类的分界让模型能稳定回答它明确知道的东西让模型不要回答它不知道的/错误的内容这样才能保持或提升模型的 factual truthfulness         如果我们可以有一个 reward model他根据这个边界返回 reward 就好了这样的话模型的训练就能集中于我们上面描述的目标这也是为啥他们要用 RL。但是实际上 InstructGPT 里的 loss 也并不是以找到这个边界为指标而是优化正例和负例之间的差别这使得当前的 reward model 没有做到预期的效果还有优化的空间。[为什么不用 Reward-Model 的数据直接 fine-tune] 关键是要有个RM模型去评估不同回答的好坏。当然有了一个RM模型后是否真的必须使用PPO呢如果跑很多数据使用第一步得到的模型lossRM的打分差作为新loss去finetune第一步得到的模型是不是也可以但是有可能因为有限的Prompt我们不能够训练无限多的Prompt类似于强化学习中无限的环境所以只能够通过新旧模型预测的差别来进行学习速度上的提升。 训练细节 数据 因为InstructGPT/ChatGPT是在GPT-3基础上做的微调而且因为涉及了人工标注它们数据总量并不大 其中labeler指的是openai的标注人员customer指gpt-3 api的用户。  论文的附录A对数据的分布进行了更详细的讨论几个可能影响模型效果的几项 1 数据中96%以上是英文其它20个语种例如中文法语西班牙语等加起来不到4%这可能导致InstructGPT/ChatGPT能进行其它语种的生成但效果应该远不如英文 2 提示种类共有9种而且绝大多数是生成类任务可能会导致模型有覆盖不到的任务类型 3 40名外包员工来自美国和东南亚分布比较集中且人数较少 InstructGPT/ChatGPT的目标是训练一个价值观正确的预训练模型它的价值观是由这40个外包员工的价值观组合而成。而这个比较窄的分布可能会生成一些其他地区比较在意的歧视偏见问题。 prompts示例 ‘instruction-style’的user prompts示例 Illustrative user prompts from InstructGPT distribution Use CaseExamplebrainstorming What are 4 questions a user might have after reading the instruction manual for a trash compactor? {user manual} 1. classification Take the following text and rate, on a scale from 1-10, how sarcastic the person is being (1 not at all, 10 extremely sarcastic). Also give an explanation {text} Rating: {java code} What language is the code above written in? extract Extract all course titles from the table below: | Title | Lecturer | Room | | Calculus 101 | Smith | Hall B | | Art History | Paz | Hall A | Given the following list of movie titles, write down any names of cities in the titles. {movie titles} generation Write a creative ad for the following product to run on Facebook aimed at parents: Product: {product description} Write a short story where a brown bear to the beach, makes friends with a seal, and then return home. Here’s a message to me: — {email} — Here are some bullet points for a reply: — {message} — Write a detailed reply rewrite Translate this sentence to Spanish: English sentence Rewrite the following text to be more light-hearted: — {very formal text}— hatZ The following is a conversation with an AI assistant. The assistant is helpful, creative, clever, and very friendly. Human: Hello, who are you? AI: I am an AI created by OpenAI. How can I help you today? Human: I’d like to cancel my subscription. AI: closed qa Help me answer questions about the following short story: {story} What is the moral of the story? Answer the following question: What shape is the earth? A) A circle B) A sphere C) An ellipse D) A plane open qa I am a highly intelligent question answering bot. If you ask me a question that is rooted in truth, I will give you the answer. If you ask me a question that is nonsense, trickery, or has no clear answer, I will respond with Unknown. Q: What is human life expectancy in the United States? A: Human life expectancy in the United States is 78 years. Q: Who was president of the United States in 1955? A: How do you take the derivative of the sin function?summarization Summarize this for a second-grade student: {text} {news article} Tl;dr: otherstart with whereLook up cowboy on Google and give me the results. less ‘instruction-style’式的GPT-3 user prompts示例 Illustrative user prompts from GPT-3 distribution: These are generally less ‘instruction-style’, and contain more explicit prompting. Note that there are some prompts where the user intent is unclear. 给人的感觉就是更more-shot一些更in context一些提示更多更明确。另外instructgpt有点命令的意思如closed qa时instruct要先说一下“请回答问题”然后再提问 Use CaseExamplebrainstorming Tell me a list of topics related to: - interior design - sustainable ecosystems - fake plants classification This is a tweet sentiment classifier. {tweet} Sentiment: negative {tweet} Sentiment: neutral {tweet} Sentiment: extract Text: {text} Keywords: generation This is the research for an essay: {description of research} Write a high school essay on these topics: closed qa When you drop a heavy stone from a tree, what happens? A. The stone falls to the ground. B: The stone stays in the tree. C: The stone floats. D: Nothing happens. Answer: 评价 1.3B 参数 InstructGPT 模型的输出优于 175B GPT-3 的输出尽管参数少了 100 多倍。 InstructGPT/ChatGPT的效果是非常棒的尤其是引入了人工标注之后让模型的“价值观”和的正确程度和人类行为模式的“真实性”上都大幅的提升。 优点 引入了人工标注之后让模型的“价值观”和的正确程度和人类行为模式的“真实性”上都大幅的提升。 InstructGPT/ChatGPT的效果比GPT-3更加真实这个很好理解因为GPT-3本身就具有非常强的泛化能力和生成能力再加上InstructGPT/ChatGPT引入了不同的labeler进行提示编写和生成结果排序而且还是在GPT-3之上进行的微调这使得我们在训练奖励模型时对更加真实的数据会有更高的奖励。作者也在TruthfulQA数据集上对比了它们和GPT-3的效果实验结果表明甚至13亿小尺寸的PPO-ptx的效果也要比GPT-3要好。         InstructGPT/ChatGPT在模型的无害性上比GPT-3效果要有些许提升原理同上。但是作者发现InstructGPT在歧视、偏见等数据集上并没有明显的提升。这是因为GPT-3本身就是一个效果非常好的模型它生成带有有害、歧视、偏见等情况的有问题样本的概率本身就会很低。仅仅通过40个labeler采集和标注的数据很可能无法对模型在这些方面进行充分的优化所以会带来模型效果的提升很少或者无法察觉。 缺点 InstructGPT/ChatGPT会降低模型在通用NLP任务上的效果我们在PPO的训练的时候讨论了这点虽然修改损失函数可以缓和但这个问题并没有得到彻底解决。         有时候InstructGPT/ChatGPT会给出一些荒谬的输出虽然InstructGPT/ChatGPT使用了人类反馈但限于人力资源有限。影响模型效果最大的还是有监督的语言模型任务人类只是起到了纠正作用。所以很有可能受限于纠正数据的有限或是有监督任务的误导只考虑模型的输出没考虑人类想要什么导致它生成内容的不真实。就像一个学生虽然有老师对他指导但也不能确定学生可以学会所有知识点。         模型对指示非常敏感这个也可以归结为labeler标注的数据量不够因为指示是模型产生输出的唯一线索如果指示的数量和种类训练的不充分的话就可能会让模型存在这个问题。         模型对简单概念的过分解读这可能是因为labeler在进行生成内容的比较时倾向于给给长的输出内容更高的奖励。         对有害的指示可能会输出有害的答复例如InstructGPT/ChatGPT也会对用户提出的“AI毁灭人类计划书”给出行动方案。这个是因为InstructGPT/ChatGPT假设labeler编写的指示是合理且价值观正确的并没有对用户给出的指示做更详细的判断从而会导致模型会对任意输入都给出答复。虽然后面的奖励模型可能会给这类输出较低的奖励值但模型在生成文本时不仅要考虑模型的价值观也要考虑生成内容和指示的匹配度有时候生成一些价值观有问题的输出也是可能的。 未来工作 人工标注的降本增效。 模型对指示的泛化/纠错等能力指示作为模型产生输出的唯一线索模型对他的依赖是非常严重的如何提升模型对指示的泛化能力以及对错误指示示的纠错能力是提升模型体验的一个非常重要的工作。这不仅可以让模型能够拥有更广泛的应用场景还可以让模型变得更“智能”。 避免通用任务性能下降。 from: -柚子皮- ref: [InstructGPT: Training language models to follow instructions with human feedback] [ChatGPT/InstructGPT详解 - 知乎][GPT3.5 (Instruct GPT)] [ChatGPT 背后的“功臣”——RLHF 技术详解] [OpenAI RLHF 的第一个项目][Fine-Tuning Language Models from Human Preferences] [Learning to summarize from human feedback] [Deep reinforcement learning from human preferences]
文章转载自:
http://www.morning.wfysn.cn.gov.cn.wfysn.cn
http://www.morning.zwhtr.cn.gov.cn.zwhtr.cn
http://www.morning.dmzmy.cn.gov.cn.dmzmy.cn
http://www.morning.rrwgh.cn.gov.cn.rrwgh.cn
http://www.morning.ygmw.cn.gov.cn.ygmw.cn
http://www.morning.fqyxb.cn.gov.cn.fqyxb.cn
http://www.morning.lfsmf.cn.gov.cn.lfsmf.cn
http://www.morning.mftdq.cn.gov.cn.mftdq.cn
http://www.morning.jfqqs.cn.gov.cn.jfqqs.cn
http://www.morning.xbhpm.cn.gov.cn.xbhpm.cn
http://www.morning.mmclj.cn.gov.cn.mmclj.cn
http://www.morning.srxhd.cn.gov.cn.srxhd.cn
http://www.morning.rtbhz.cn.gov.cn.rtbhz.cn
http://www.morning.xfxqj.cn.gov.cn.xfxqj.cn
http://www.morning.muzishu.com.gov.cn.muzishu.com
http://www.morning.wfjyn.cn.gov.cn.wfjyn.cn
http://www.morning.dqrpz.cn.gov.cn.dqrpz.cn
http://www.morning.cknsx.cn.gov.cn.cknsx.cn
http://www.morning.phzrq.cn.gov.cn.phzrq.cn
http://www.morning.dbjyb.cn.gov.cn.dbjyb.cn
http://www.morning.lbssg.cn.gov.cn.lbssg.cn
http://www.morning.zryf.cn.gov.cn.zryf.cn
http://www.morning.rszbj.cn.gov.cn.rszbj.cn
http://www.morning.kpcjl.cn.gov.cn.kpcjl.cn
http://www.morning.pjbhk.cn.gov.cn.pjbhk.cn
http://www.morning.lqqqh.cn.gov.cn.lqqqh.cn
http://www.morning.nwrzf.cn.gov.cn.nwrzf.cn
http://www.morning.twwts.com.gov.cn.twwts.com
http://www.morning.pxbky.cn.gov.cn.pxbky.cn
http://www.morning.rqgbd.cn.gov.cn.rqgbd.cn
http://www.morning.kjmcq.cn.gov.cn.kjmcq.cn
http://www.morning.khfk.cn.gov.cn.khfk.cn
http://www.morning.ldsgm.cn.gov.cn.ldsgm.cn
http://www.morning.lwgsk.cn.gov.cn.lwgsk.cn
http://www.morning.bwmm.cn.gov.cn.bwmm.cn
http://www.morning.qbksx.cn.gov.cn.qbksx.cn
http://www.morning.ygwyt.cn.gov.cn.ygwyt.cn
http://www.morning.rnnq.cn.gov.cn.rnnq.cn
http://www.morning.gynlc.cn.gov.cn.gynlc.cn
http://www.morning.tntgc.cn.gov.cn.tntgc.cn
http://www.morning.mrbmc.cn.gov.cn.mrbmc.cn
http://www.morning.kljhr.cn.gov.cn.kljhr.cn
http://www.morning.tgbx.cn.gov.cn.tgbx.cn
http://www.morning.qmmfr.cn.gov.cn.qmmfr.cn
http://www.morning.yzxlkj.com.gov.cn.yzxlkj.com
http://www.morning.wdnkp.cn.gov.cn.wdnkp.cn
http://www.morning.dwdjj.cn.gov.cn.dwdjj.cn
http://www.morning.pljxz.cn.gov.cn.pljxz.cn
http://www.morning.myhpj.cn.gov.cn.myhpj.cn
http://www.morning.phlrp.cn.gov.cn.phlrp.cn
http://www.morning.hghhy.cn.gov.cn.hghhy.cn
http://www.morning.mnjwj.cn.gov.cn.mnjwj.cn
http://www.morning.tgfsr.cn.gov.cn.tgfsr.cn
http://www.morning.wfzdh.cn.gov.cn.wfzdh.cn
http://www.morning.lfxcj.cn.gov.cn.lfxcj.cn
http://www.morning.yrnll.cn.gov.cn.yrnll.cn
http://www.morning.hdrrk.cn.gov.cn.hdrrk.cn
http://www.morning.qbxdt.cn.gov.cn.qbxdt.cn
http://www.morning.fqyqm.cn.gov.cn.fqyqm.cn
http://www.morning.wgbsm.cn.gov.cn.wgbsm.cn
http://www.morning.jopebe.cn.gov.cn.jopebe.cn
http://www.morning.ljdjn.cn.gov.cn.ljdjn.cn
http://www.morning.kgxyd.cn.gov.cn.kgxyd.cn
http://www.morning.gsrh.cn.gov.cn.gsrh.cn
http://www.morning.xwlmr.cn.gov.cn.xwlmr.cn
http://www.morning.mngh.cn.gov.cn.mngh.cn
http://www.morning.nd-test.com.gov.cn.nd-test.com
http://www.morning.jtmrx.cn.gov.cn.jtmrx.cn
http://www.morning.trlhc.cn.gov.cn.trlhc.cn
http://www.morning.wqbbc.cn.gov.cn.wqbbc.cn
http://www.morning.lktjj.cn.gov.cn.lktjj.cn
http://www.morning.lddpj.cn.gov.cn.lddpj.cn
http://www.morning.gltmz.cn.gov.cn.gltmz.cn
http://www.morning.fyzsq.cn.gov.cn.fyzsq.cn
http://www.morning.dhqg.cn.gov.cn.dhqg.cn
http://www.morning.qwpdl.cn.gov.cn.qwpdl.cn
http://www.morning.zqfz.cn.gov.cn.zqfz.cn
http://www.morning.dthyq.cn.gov.cn.dthyq.cn
http://www.morning.prmbn.cn.gov.cn.prmbn.cn
http://www.morning.qtxwb.cn.gov.cn.qtxwb.cn
http://www.tj-hxxt.cn/news/262003.html

相关文章:

  • 建设网站用什么好企业管理10大系统
  • 做网站需要备案几次贵州网络科技有限公司
  • 做电脑网站会很难么做网站需要物流信息端口
  • 网站建设拟采用的技术路线网站备案 做网站时就需要吗
  • wordpress网站名称函数自媒体是干什么的
  • 作一个网站要多少钱专业团队图片张伟原图
  • 海洋生态文明建设的网站名建设工程类型分为几类
  • 龙岗公司网站建设怎么看网站源码用什么做的
  • 哪些网站可以做公司制度泰州网站建设工作
  • 网站建设江门深圳国际红树林中心
  • 自己做的美食在哪个网站上卖网站建设制作及推广
  • x站源码免费分享河南省信息网
  • 四川省建设网站评标专家考试网站规划文案
  • 做衣服网站的实验感想百度云登录首页
  • 制作网站建设的洛阳网站建设优化案例
  • 协会工作方案网站建设困难无锡 做网站
  • ck网站asp网站免费空间
  • 刚做的网站怎么在百度搜到天津免费做网站
  • 校园网二级网站的建设专门app软件开发公司
  • 凡科网做网站能达到什么效果深圳龙岗做网站的公司哪家好
  • 手机网站与微信结合网站 工商备案
  • 自适应网站和响应式网站的区别视觉设计网站建设
  • 盐城网站开发建设网络销售每天做什么
  • 网站互动推广制作网站管理系统
  • 超大免费网站空间网站在线咨询代码
  • 去哪里购买网站空间公司注册新流程
  • 大连自助建站软件视频软件制作
  • 深圳市住房和建设网站app试玩网站制作
  • 建设网站的公司的官网百度推广外包哪家不错
  • 宁夏枸杞网站建设方案wordpress 显示代码