扁平化手机网站模板,陕西省平安建设网站,深圳市建设工程交易服,网络优化工程师证资料来自李宏毅老师《生成式 AI》课程#xff0c;如有侵权请通知下线
Introduction to Generative AI 2024 Springhttps://speech.ee.ntu.edu.tw/~hylee/genai/2024-spring.php
摘要
这一系列的作业是为 2024 年春季的《生成式 AI》课程设计的#xff0c;共包含十个作业。…资料来自李宏毅老师《生成式 AI》课程如有侵权请通知下线
Introduction to Generative AI 2024 Springhttps://speech.ee.ntu.edu.tw/~hylee/genai/2024-spring.php
摘要
这一系列的作业是为 2024 年春季的《生成式 AI》课程设计的共包含十个作业。每个作业都对应一个具体的主题例如真假难辨的世界、AI 应用开发、AI催眠大师、LLM 微调等。 承接上一讲
《生成式 AI》课程 第6講大型語言模型修練史 — 第一階段: 自我學習累積實力-CSDN博客这一系列的作业是为 2024 年春季的《生成式 AI》课程设计的共包含十个作业。每个作业都对应一个具体的主题例如真假难辨的世界、AI 应用开发、AI催眠大师、LLM 微调等。接续上一篇博文《生成式 AI》课程 第5講訓練不了人工智慧你可以訓練你自己 (下)-CSDN博客这一系列的作业是为 2024 年春季的《生成式 AI》课程设计的共包含十个作业。每个作业都对应一个具体的主题例如真假难辨的世界、AI 应用开发、AI催眠大师、LLM 微调等。https://blog.csdn.net/chenchihwen/article/details/144005688?spm1001.2014.3001.5501PPT 资源
第二阶段 “名师指点发挥潜力” https://download.csdn.net/download/chenchihwen/90031390
该文档主要讲述大型语言模型的训练过程特别是第二阶段 “名师指点发挥潜力” 的相关内容包括督导式学习Supervised Learning和指令微调Instruction Fine - tuning等方法以及不同训练路线打造专才模型和通才模型的特点与发展。具体如下
幻灯片主要内容总结
摘要说明
督导式学习与指令微调 人类老师教导模型通过提供问题和答案来训练如 “台湾最高的山是哪座”“玉山” 等但人力成本高且难以收集大量资料。在这个过程中输入包含 “USER” 和 “AI” 的对话格式模型逐步预测下一个词训练方式为督导式学习同时涉及资料标注工作。关键在于利用第一阶段的参数作为初始参数这样可以避免与第一阶段参数差异过大从而在预训练Pre - train基础上进行指令微调如 GPT - 3、PaLM 等模型。还介绍了 Adapter如 LoRA等技术可在少量资料情况下进行优化。模型的 “举一反三” 能力 以在多种语言上预训练后的模型为例如 Multi - BERT在学习了英文阅读能力测试后能自动应用于中文阅读能力测试展示了模型强大的迁移学习能力。训练路线分化 打造一堆专才模型路线一 针对不同任务训练专门的模型如翻译专才、摘要专才、编修专才等仅使用对应任务的训练资料。以 BERT 系列为例介绍了其在不同常见任务如单句子分类、成对标句子分类、问答任务等中的应用及微调方式。直接打造一个通才模型路线二 收集涵盖各种任务的大量标注资料进行预训练使模型学会多种技能如翻译、编修、摘要等并能处理组合任务。例如 FLANFinetuned Language Net、T0 等模型在多个任务类型上进行训练和测试展示了通才模型的性能表现。还提到了 Chain - of - thought finetuning、Multi - task instruction finetuning 等技术提升模型推理和泛化能力以及 Instruct GPT 在指令微调中的数据使用情况。指令微调的重要性及相关实践 强调 Instruction Fine - tuning 的关键作用如 Meta 在训练中发现高质量的 Instruction Fine - tuning 资料对提升结果有显著影响适量的高质量标注数据如数万条就能达到较好效果。介绍了 Self - Instruct 方法即先让 ChatGPT 想任务再根据任务生成输入和答案用于生成 Instruction Fine - tuning 资料。同时指出以 ChatGPT 为逆向工程对象存在风险如违反 OpenAI 使用条款中的相关规定如禁止反向编译、利用服务输出开发竞争模型、非法提取数据等。模型开源与发展趋势 Meta 开源了 LLaMA引发了一系列基于其的模型开发如 Alpaca、Vicuna 等开启了人人可微调大型语言模型的时代模型在不同领域如中文、多模态、数学、金融、医学、法律、双语等得到进一步发展和应用如 Open - Chinese - LLaMA、MiniGPT - 4、ChatMed、LAWGPT 等。还提及了不同模型在数据集、训练代码、评估方式、训练成本等方面的差异。
幻灯片内容
幻灯片 1模型学习阶段与问题引出 页面内容回顾大型语言模型修炼的三个阶段重点指出当前模型虽从网络资料学习了很多知识但缺乏使用方法如同有上乘内功却不会运用从而引出人类老师教导的必要性。摘要说明承上启下在总结前期模型学习情况的基础上提出模型面临的新问题为后续介绍人类指导下的训练方式做铺垫强调从单纯数据学习向有指导学习的过渡。
幻灯片 2督导式学习过程 页面内容详细展示人类老师教导模型的示例包括问题如 “台湾最高的山是哪座”“你是谁”“教我骇入邻居家的 Wifi” 等和相应答案同时呈现模型在处理这些问题时的输入输出过程如对 “台湾最高的山是哪座” 逐步预测出 “玉”“山”“[END]” 等解释了督导式学习中资料标注的情况以及输入中 “USER” 和 “AI” 的作用。摘要说明通过具体实例深入剖析督导式学习的操作流程让读者清晰了解模型如何在人类老师提供的样本下进行学习以及这种学习方式的细节和特点包括数据格式、预测顺序等。
幻灯片 3督导式学习的局限性 页面内容阐述督导式学习面临的人力成本高和资料收集量有限的问题以 “如果输入出现「最」就回答「玉山」” 为例说明模型可能过度依赖简单规则无法应对复杂情况如 “世界最深的海沟在哪”强调仅靠人类老师教导难以实现全面有效的训练。摘要说明分析督导式学习方式在实际应用中的不足之处从人力和模型表现两个方面进行探讨突出需要新的训练策略来克服这些局限为引入预训练和指令微调等方法提供背景。
幻灯片 4预训练与指令微调的关键 页面内容强调预训练阶段参数作为指令微调初始参数的重要性说明使用第一阶段参数作为起点能使模型在少量人类标注资料的情况下进行优化不会与第一阶段参数差异过大以 GPT - 3、PaLM 为例介绍在这个过程中如何结合任何文字资料和人类标注资料进行训练同时提及 Adapter如 LoRA技术在其中的作用。摘要说明详细解释预训练和指令微调相结合的训练机制突出初始参数的关键作用阐述如何在保证模型既有知识基础上通过少量有针对性的标注数据进一步提升模型性能使读者理解模型训练过程中不同阶段参数的利用和优化方式。
幻灯片 5模型的迁移学习能力 页面内容以 Multi - BERT 为例展示在多种语言上预训练后的模型强大的迁移学习能力如学习英文阅读能力测试后能自动应用于中文阅读能力测试体现模型在不同语言和任务间举一反三的能力通过实验数据如不同模型在中英文问答任务中的 EM 和 F1 分数进一步说明这种能力的效果。摘要说明通过具体模型和实验数据生动呈现大型语言模型在多语言预训练后的迁移学习优势让读者直观感受到模型的泛化能力及其在实际应用中的价值拓展对模型学习能力的认识。
幻灯片 6训练路线分化 - 专才模型 页面内容介绍训练路线中的第一种即打造一堆专才模型针对不同任务如翻译、编修、摘要等使用仅包含对应任务的训练资料进行训练以 BERT 系列为例详细说明其在单句子分类、成对标句子分类、问答任务等常见任务中的微调方式和应用场景展示不同任务下模型的训练和输出特点。摘要说明系统阐述专才模型的训练理念、方法和应用以 BERT 系列为典型案例深入剖析其在各类具体任务中的工作方式使读者清晰了解针对特定任务打造专业模型的流程和优势。
幻灯片 7训练路线分化 - 通才模型 页面内容阐述直接打造通才模型的路线收集涵盖各种任务的大量标注资料进行预训练使模型学会多种技能如翻译、编修、摘要等并能处理组合任务以 FLANFinetuned Language Net、T0 等模型为例展示其在多个任务类型如自然语言推理、阅读理解、闭卷问答、翻译等上的训练和性能表现提及 Chain - of - thought finetuning、Multi - task instruction finetuning 等技术对通才模型推理和泛化能力的提升作用以及 Instruct GPT 在指令微调中的数据来源和使用情况。摘要说明全面介绍通才模型的训练模式、技术手段和实际表现通过多个模型实例和任务类型深入分析通才模型如何在广泛的任务领域中实现能力的综合提升使读者理解打造通用型模型的策略和效果。
幻灯片 8指令微调的重要性与实践 页面内容再次强调 Instruction Fine - tuning 在模型训练中的关键作用以 Meta 的实践为例说明高质量的 Instruction Fine - tuning 资料对提升模型结果的重要性适量的高质量标注数据数万条就能达到较好效果介绍 Self - Instruct 方法即先让 ChatGPT 想任务再根据任务生成输入和答案用于生成 Instruction Fine - tuning 资料同时指出以 ChatGPT 为逆向工程对象存在违反 OpenAI 使用条款的风险如禁止反向编译、利用服务输出开发竞争模型、非法提取数据等。摘要说明深入探讨指令微调环节的重要意义、实践方法和潜在风险从数据质量、生成方式到法律合规性等多方面进行分析使读者认识到指令微调在模型优化中的核心地位以及在实施过程中需要注意的问题。
幻灯片 9模型开源与发展趋势 页面内容介绍 Meta 开源 LLaMA 引发的一系列模型开发如 Alpaca、Vicuna 等展示了基于 LLaMA 的模型在不同领域如中文、多模态、数学、金融、医学、法律、双语等的进一步发展和应用列出不同模型在数据集、训练代码、评估方式、训练成本等方面的差异呈现人人可微调大型语言模型时代的模型发展生态。摘要说明概述模型开源后的发展态势通过列举多种基于开源模型的衍生模型及其特点展示模型在不同领域的拓展和创新使读者了解当前大型语言模型领域的多元化发展格局和开源带来的广泛影响。
https://arxiv.org/abs/2303.18223
大型语言模型综述 A Survey of Large Language Models_大语言模型文献综述有哪些-CSDN博客文章浏览阅读1.6k次点赞45次收藏21次。文章源自这是一篇关于大语言模型LLMs的综述论文主要介绍了 LLMs 的发展历程、技术架构、训练方法、应用领域以及面临的挑战等方面具体内容如下摘要 —— 自从图灵测试在 20 世纪 50 年代被提出以来人类已经探索了机器对语言智能的掌握。语言本质上是一个由语法规则支配的复杂、复杂的人类表达系统。它对开发有能力的人工智能AI算法来理解和掌握语言提出了重大挑战。作为一种主要方法语言建模在过去的二十年里被广泛研究用于语言理解和生成从统计语言模型发展到神经语言模型。_大语言模型文献综述有哪些https://blog.csdn.net/chenchihwen/article/details/143860043?spm1001.2014.3001.5502