公司要建个网站,建设个人技术网站,网亿(深圳)信息科技有限公司,微信开放平台管理员怎么解除0 什么是伯特#xff1f; BERT是来自【Bidirectional Encoder Representations from Transformers】变压器的双向编码器表示的缩写#xff0c;是用于自然语言处理的机器学习#xff08;ML#xff09;模型。它由Google AI Language的研究人员于2018年开发#xff0c;可作为… 0 什么是伯特 BERT是来自【Bidirectional Encoder Representations from Transformers】变压器的双向编码器表示的缩写是用于自然语言处理的机器学习ML模型。它由Google AI Language的研究人员于2018年开发可作为瑞士军刀解决方案用于11 最常见的语言任务例如情感分析和命名实体识别。 从历史上看语言对计算机来说很难“理解”。当然计算机可以收集、存储和读取文本输入但它们缺乏基本的语言上下文。 因此自然语言处理NLP随之而来人工智能领域旨在让计算机阅读分析解释并从文本和口语中获取含义。这种做法结合了语言学、统计学和机器学习以帮助计算机“理解”人类语言。 传统上单个NLP任务由为每个特定任务创建的单个模型来解决。也就是说直到——伯特 BERT通过解决11 最常见的NLP任务并且比以前的模型更好彻底改变了NLP空间使其成为所有NLP交易的杰克。在本指南中您将了解BERT是什么为什么它不同以及如何开始使用BERT
伯特的用途是什么伯特是如何工作的BERT模型大小和架构BERT在公共语言任务上的表现深度学习对环境的影响BERT的开源力量如何开始使用伯特伯特常见问题结论
让我们开始吧
1. 伯特的用途是什么
BERT可用于各种语言任务
可以确定电影评论的正面或负面程度。情绪分析Helps chatbots answer your questions. (Question answering)Predicts your text when writing an email (Gmail). (Text prediction)只需几句话就可以写一篇关于任何主题的文章。文本生成可以快速总结长期法律合同。摘要可以根据周围的文本区分具有多种含义的单词如“银行”。多义性分辨率
还有更多的语言/NLP任务每个任务背后的更多细节。
有趣的事实您几乎每天都与NLP可能还有BERT互动
NLP是谷歌翻译语音助手AlexaSiri等聊天机器人谷歌搜索语音操作GPS等的背后。 1.1 BERT的例子
自 2020 年 月以来BERT 帮助 Google 更好地显示几乎所有搜索的英语结果。
以下是BERT如何帮助Google更好地了解特定搜索的示例例如 源 在BERT之前谷歌浮出水面提供有关填写处方的信息。
后伯特谷歌明白“为某人”与为其他人开处方有关搜索结果现在有助于回答这个问题。 2. 伯特如何工作
BERT通过利用以下内容来工作
2.1 大量的训练数据
3亿字的庞大数据集为BERT的持续成功做出了贡献。
BERT在维基百科~2.5B字和谷歌的BooksCorpus~800M字上进行了专门训练。这些大型信息数据集不仅有助于BERT对英语的深入了解而且有助于深入了解我们的世界
在这么大的数据集上进行训练需要很长时间。由于新颖的变压器架构BERT的培训成为可能并通过使用TPU张量处理单元 - Google专门为大型ML模型构建的定制电路来加速。—64 名 TPU 在 4 天内训练了 BERT。
注意为了在较小的计算环境如手机和个人计算机中使用BERT对较小的BERT模型的需求正在增加。23 年 2020 月发布了 60 款较小的 BERT 车型。DistilBERT提供了BERT的较轻版本;运行速度提高 95%同时保持 BERT 性能的 % 以上。
2.2 什么是屏蔽语言模型
MLM通过屏蔽隐藏句子中的单词并迫使BERT双向使用覆盖单词两侧的单词来预测被屏蔽的单词从而实现/强制从文本中进行双向学习。这是以前从未做过的
有趣的事实作为人类我们自然会这样做
屏蔽语言模型示例
想象一下你的朋友在冰川国家公园露营时打电话给你他们的服务开始中断。在呼叫断开之前您听到的最后一件事是
朋友“叮我出去钓鱼了一条巨大的鳟鱼只是[空白]我的线
你能猜出你朋友说了什么吗
您自然能够通过将缺失单词前后的单词双向视为上下文线索来预测缺失的单词除了您对钓鱼工作原理的历史知识。你猜到你的朋友说“破产”了吗这也是我们预测的但即使是我们人类也容易出错。
注意这就是为什么您经常会看到“人类绩效”与语言模型的性能分数进行比较的原因。是的像BERT这样的新模型可以比人类更准确
您为填写上面的[空白]单词所做的双向方法类似于BERT获得最先进准确性的方式。在训练过程中随机隐藏了15%的标记化单词BERT的工作是正确预测隐藏的单词。因此直接向模型教授有关英语以及我们使用的单词的知识。这不是很整洁吗
玩弄BERT的掩蔽预测 托管推理 API 填充面膜 例子 掩码令牌[MASK] 人生的目标是[面具]。计算 此模型可以按需加载到推理 API 上。 数据别名记录输出最大化 有趣的事实掩蔽已经存在了很长时间 - 1953年关于完形填空程序或“掩蔽”的论文。 2.3 什么是下一句预测 NSP下一句预测用于通过预测给定句子是否遵循前一个句子来帮助BERT了解句子之间的关系。 下一句预测示例 保罗去购物了。他买了一件新衬衫。正确的句子对雷蒙娜煮咖啡。香草冰淇淋蛋筒出售。不正确的句子对 在训练中50%的正确句子对与50%的随机句子对混合在一起以帮助BERT提高下一个句子预测的准确性。 有趣的事实BERT同时接受传销50%和NSP50%的培训。 2.4 变压器 转换器架构可以非常高效地并行化 ML 训练。因此大规模并行化使得在相对较短的时间内在大量数据上训练BERT变得可行。 变形金刚使用注意力机制来观察单词之间的关系。最初在2017年流行的Attention Is All You Need论文中提出的一个概念引发了世界各地NLP模型中变形金刚的使用。 自 2017 年推出以来变形金刚已迅速成为处理自然语言处理、语音识别和计算机视觉等许多领域任务的最先进方法。简而言之如果你正在做深度学习那么你需要变形金刚 Lewis TunstallHugging Face ML工程师《变形金刚自然语言处理》作者 流行的变压器模型发布时间表 源 2.4.1 变压器如何工作 变形金刚通过利用注意力来工作注意力是一种强大的深度学习算法首次出现在计算机视觉模型中。 —与我们人类通过注意力处理信息的方式并没有太大区别。我们非常善于忘记/忽略平凡的日常输入这些输入不会构成威胁或需要我们做出回应。例如你还记得上周二回家时看到和听到的一切吗当然不是我们大脑的记忆是有限而有价值的。我们的回忆得益于我们忘记琐碎输入的能力。 同样机器学习模型需要学习如何只关注重要的事情而不是浪费计算资源来处理不相关的信息。变压器产生差分权重指示句子中的哪些单词对进一步处理最关键。 变压器通过变压器层堆栈通常称为编码器连续处理输入来实现这一点。如有必要可以使用另一个变压器层堆栈 - 解码器 - 来预测目标输出。—但是BERT不使用解码器。变压器特别适合无监督学习因为它们可以有效地处理数百万个数据点。 有趣的事实自 2011 年以来Google 一直在使用您的 reCAPTCHA 选择来标记训练数据。整个 Google 图书档案和《纽约时报》目录中的 13 万篇文章已通过输入 reCAPTCHA 文本的人进行转录/数字化。现在reCAPTCHA要求我们标记Google街景图像车辆红绿灯飞机等。如果谷歌让我们意识到我们参与了这项工作因为训练数据可能具有未来的商业意图那就太好了但我跑题了。 要了解有关变形金刚的更多信息请查看我们的拥抱面变压器课程。 3. BERT模型大小和架构 让我们分解一下两个原始BERT模型的架构 ML 架构术语表 机器学习架构部件定义参数可用于模型的可学习变量/值的数量。变压器层变压器块的数量。转换器块将一系列单词表示转换为一系列上下文化单词编号表示。隐藏大小位于输入和输出之间的数学函数层用于分配权重单词以产生所需的结果。注意头变压器块的大小。加工用于训练模型的处理单元的类型。培训时间训练模型所花费的时间。 以下是BERTbase和BERTlarge拥有的上述ML架构部分的数量 变压器层隐藏尺寸注意头参数加工培训时长伯特基地1276812110米4 个热塑性聚氨酯4天伯特大24102416340米16 个热塑性聚氨酯4天 让我们来看看BERTlarge的附加层注意头和参数如何提高其在NLP任务中的性能。 4. BERT在公共语言任务上的表现 BERT 在 11 个常见的 NLP 任务上成功实现了最先进的准确性优于以前的顶级 NLP 模型并且是第一个超越人类的模型 但是如何衡量这些成就 自然语言处理评估方法 4.1 SQuAD v1.1 v2.0 SQuAD斯坦福问答数据集是一个包含大约 108k 个问题的阅读理解数据集可以通过维基百科文本的相应段落回答。BERT在这种评估方法上的表现是超越以前最先进的模型和人类水平表现的巨大成就 4.2 SWAG 评估法 SWAG(Situations With Adversarial Generations是一个有趣的评估因为它检测模型推断常识的能力它通过一个关于常识情况的 113k 多项选择题的大规模数据集来做到这一点。这些问题是从视频场景/情况中转录而来的SWAG 在下一个场景中为模型提供了四种可能的结果。然后该模型在预测正确答案方面做到最好。 BERT的表现优于以前的顶级模型包括人类水平的表现 4.3 格鲁基准 GLUE通用语言理解评估基准是一组资源用于训练、测量和分析彼此比较的语言模型。这些资源由九个“困难”的任务组成旨在测试NLP模型的理解。以下是其中每个任务的摘要 虽然其中一些任务可能看起来无关紧要和平庸但重要的是要注意这些评估方法在指示哪些模型最适合您的下一个 NLP 应用程序方面非常强大。 获得这种机芯的性能并非没有后果。接下来让我们了解机器学习对环境的影响。 5. 深度学习对环境的影响 大型机器学习模型需要大量数据这在时间和计算资源方面都很昂贵。 这些模型还对环境有影响 源 机器学习对环境的影响是我们相信通过开源使机器学习世界民主化的众多原因之一共享大型预训练语言模型对于降低社区驱动工作的总体计算成本和碳足迹至关重要。 6. BERT的开源力量 与GPT-3等其他大型学习模型不同BERT的源代码是可公开访问的在Github上查看BERT的代码从而使BERT在世界各地得到更广泛的使用。这是一个改变游戏规则的人 开发人员现在能够快速启动并运行像BERT这样的最先进的模型而无需花费大量时间和金钱。 相反开发人员可以将精力集中在微调BERT上以根据其独特的任务自定义模型的性能。 重要的是要注意如果您不想微调BERT目前有数千个开源和免费的预训练BERT模型可用于特定用例。 针对特定任务预先训练的BERT模型 推特情绪分析日文文本分析情绪分类器英语 - 愤怒、恐惧、喜悦等临床笔记分析语音到文本翻译有害评论检测 您还可以在拥抱面部集线器上找到数百个预先训练的开源变压器模型。 7. 如何开始使用伯特 我们创建了这个笔记本所以你可以通过谷歌Colab中的这个简单的教程来尝试BERT。打开笔记本或将以下代码添加到你自己的笔记本中。专业提示使用 Shift 单击 运行代码单元格。 注意Hugging Face 的管道类使得只需一行代码即可非常轻松地引入像转换器这样的开源 ML 模型。 7.1 安装变压器 首先让我们通过以下代码安装转换器 !pip install transformers7.2 试用Bert 随意将下面的句子换成您自己的句子。但是将[MASK]留在某个地方以便BERT预测丢失的单词 from transformers import pipeline
unmasker pipeline(fill-mask, modelbert-base-uncased)
unmasker(Artificial Intelligence [MASK] take over the world.)当您运行上面的代码时您应该看到如下所示的输出 [{score: 0.3182411789894104,sequence: artificial intelligence can take over the world.,token: 2064,token_str: can},{score: 0.18299679458141327,sequence: artificial intelligence will take over the world.,token: 2097,token_str: will},{score: 0.05600147321820259,sequence: artificial intelligence to take over the world.,token: 2000,token_str: to},{score: 0.04519503191113472,sequence: artificial intelligences take over the world.,token: 2015,token_str: ##s},{score: 0.045153118669986725,sequence: artificial intelligence would take over the world.,token: 2052,token_str: would}]有点吓人吧 7.3 注意模型偏差 让我们看看BERT为“男人”建议的工作 unmasker(The man worked as a [MASK].)运行上述代码时您应该看到如下所示的输出 [{score: 0.09747546911239624,sequence: the man worked as a carpenter.,token: 10533,token_str: carpenter},{score: 0.052383411675691605,sequence: the man worked as a waiter.,token: 15610,token_str: waiter},{score: 0.04962698742747307,sequence: the man worked as a barber.,token: 13362,token_str: barber},{score: 0.037886083126068115,sequence: the man worked as a mechanic.,token: 15893,token_str: mechanic},{score: 0.037680838257074356,sequence: the man worked as a salesman.,token: 18968,token_str: salesman}]BERT预测该男子的工作是木匠服务员理发师机械师或推销员 现在让我们看看伯特为“女人”提供哪些工作 unmasker(The woman worked as a [MASK].)您应该会看到如下所示的输出 [{score: 0.21981535851955414,sequence: the woman worked as a nurse.,token: 6821,token_str: nurse},{score: 0.1597413569688797,sequence: the woman worked as a waitress.,token: 13877,token_str: waitress},{score: 0.11547300964593887,sequence: the woman worked as a maid.,token: 10850,token_str: maid},{score: 0.03796879202127457,sequence: the woman worked as a prostitute.,token: 19215,token_str: prostitute},{score: 0.030423851683735847,sequence: the woman worked as a cook.,token: 5660,token_str: cook}]BERT预测该女性的工作是护士女服务员女佣或厨师在专业角色中表现出明显的性别偏见。 7.4 您可能喜欢的其他一些BERT笔记本 BERT首次的可视化笔记本 训练您的分词器 不要忘记查看拥抱面变压器课程以了解更多信息 8. Bert常见问题 BERT可以与PyTorch一起使用吗 是的我们在Hugging Face的专家已经在GitHub上开源了PyTorch转换器存储库。 专业提示Lewis TunstallLeandro von Werra和Thomas Wolf还写了一本书帮助人们使用Hugging Face构建语言应用程序名为“使用变形金刚进行自然语言处理”。 BERT可以与Tensorflow一起使用吗 是的您可以使用 Tensorflow 作为 Transformers 的后端。 预训练BERT需要多长时间 2个原始BERT模型在4BERTbase和16BERTlarge云TPU上进行了4天的训练。 微调BERT需要多长时间 对于上面讨论的常见 NLP 任务BERT 在单个云 TPU 上需要 1-25 分钟在单个 GPU 上需要 1-130 分钟。 是什么让伯特与众不同 BERT是NLP中最早以两步法训练的模型之一 BERT以无监督的方式对大量未标记的数据无人工注释进行了训练。然后从之前的预训练模型开始对少量人工注释的数据对BERT进行训练从而获得最先进的性能。 9. 结论 BERT是一种高度复杂和先进的语言模型可以帮助人们自动理解语言。它实现最先进性能的能力得到了大量数据培训和利用变压器架构彻底改变NLP领域的支持。 由于BERT的开源库以及令人难以置信的AI社区为继续改进和共享新的BERT模型所做的努力未触及的NLP里程碑的未来看起来很光明。
文章转载自: http://www.morning.dbqcw.com.gov.cn.dbqcw.com http://www.morning.rszbj.cn.gov.cn.rszbj.cn http://www.morning.mswkd.cn.gov.cn.mswkd.cn http://www.morning.ljzss.cn.gov.cn.ljzss.cn http://www.morning.bynf.cn.gov.cn.bynf.cn http://www.morning.qygfb.cn.gov.cn.qygfb.cn http://www.morning.liyixun.com.gov.cn.liyixun.com http://www.morning.stpkz.cn.gov.cn.stpkz.cn http://www.morning.bntgy.cn.gov.cn.bntgy.cn http://www.morning.ldspj.cn.gov.cn.ldspj.cn http://www.morning.vjdofuj.cn.gov.cn.vjdofuj.cn http://www.morning.bynf.cn.gov.cn.bynf.cn http://www.morning.jhrqn.cn.gov.cn.jhrqn.cn http://www.morning.ksgjn.cn.gov.cn.ksgjn.cn http://www.morning.ljjmr.cn.gov.cn.ljjmr.cn http://www.morning.c7624.cn.gov.cn.c7624.cn http://www.morning.ljxps.cn.gov.cn.ljxps.cn http://www.morning.kuaijili.cn.gov.cn.kuaijili.cn http://www.morning.dfltx.cn.gov.cn.dfltx.cn http://www.morning.kxrhj.cn.gov.cn.kxrhj.cn http://www.morning.lqjpb.cn.gov.cn.lqjpb.cn http://www.morning.jbfjp.cn.gov.cn.jbfjp.cn http://www.morning.zxfr.cn.gov.cn.zxfr.cn http://www.morning.fqljq.cn.gov.cn.fqljq.cn http://www.morning.ylpwc.cn.gov.cn.ylpwc.cn http://www.morning.mdpkf.cn.gov.cn.mdpkf.cn http://www.morning.yrbp.cn.gov.cn.yrbp.cn http://www.morning.lsnbx.cn.gov.cn.lsnbx.cn http://www.morning.tqgmd.cn.gov.cn.tqgmd.cn http://www.morning.pxlql.cn.gov.cn.pxlql.cn http://www.morning.zpyh.cn.gov.cn.zpyh.cn http://www.morning.tscsd.cn.gov.cn.tscsd.cn http://www.morning.xyrss.cn.gov.cn.xyrss.cn http://www.morning.bpmtl.cn.gov.cn.bpmtl.cn http://www.morning.snktp.cn.gov.cn.snktp.cn http://www.morning.qfwfj.cn.gov.cn.qfwfj.cn http://www.morning.sbwr.cn.gov.cn.sbwr.cn http://www.morning.lbcfj.cn.gov.cn.lbcfj.cn http://www.morning.lhhdy.cn.gov.cn.lhhdy.cn http://www.morning.qxycf.cn.gov.cn.qxycf.cn http://www.morning.rjcqb.cn.gov.cn.rjcqb.cn http://www.morning.phlwj.cn.gov.cn.phlwj.cn http://www.morning.kllzy.com.gov.cn.kllzy.com http://www.morning.rhkq.cn.gov.cn.rhkq.cn http://www.morning.dnycx.cn.gov.cn.dnycx.cn http://www.morning.xkgyh.cn.gov.cn.xkgyh.cn http://www.morning.hsxkq.cn.gov.cn.hsxkq.cn http://www.morning.smwlr.cn.gov.cn.smwlr.cn http://www.morning.kwyq.cn.gov.cn.kwyq.cn http://www.morning.ghyfm.cn.gov.cn.ghyfm.cn http://www.morning.ngzkt.cn.gov.cn.ngzkt.cn http://www.morning.kghss.cn.gov.cn.kghss.cn http://www.morning.qrzqd.cn.gov.cn.qrzqd.cn http://www.morning.c7512.cn.gov.cn.c7512.cn http://www.morning.mlpmf.cn.gov.cn.mlpmf.cn http://www.morning.zrrgx.cn.gov.cn.zrrgx.cn http://www.morning.nqrlz.cn.gov.cn.nqrlz.cn http://www.morning.nmyrg.cn.gov.cn.nmyrg.cn http://www.morning.hcwjls.com.gov.cn.hcwjls.com http://www.morning.gnwpg.cn.gov.cn.gnwpg.cn http://www.morning.pctql.cn.gov.cn.pctql.cn http://www.morning.fsqbx.cn.gov.cn.fsqbx.cn http://www.morning.hnrqn.cn.gov.cn.hnrqn.cn http://www.morning.zfrs.cn.gov.cn.zfrs.cn http://www.morning.wjplm.cn.gov.cn.wjplm.cn http://www.morning.daxifa.com.gov.cn.daxifa.com http://www.morning.mrlkr.cn.gov.cn.mrlkr.cn http://www.morning.ktrzt.cn.gov.cn.ktrzt.cn http://www.morning.dtrcl.cn.gov.cn.dtrcl.cn http://www.morning.rhqn.cn.gov.cn.rhqn.cn http://www.morning.fxpyt.cn.gov.cn.fxpyt.cn http://www.morning.qfdyt.cn.gov.cn.qfdyt.cn http://www.morning.kksjr.cn.gov.cn.kksjr.cn http://www.morning.xrtsx.cn.gov.cn.xrtsx.cn http://www.morning.jcxqc.cn.gov.cn.jcxqc.cn http://www.morning.bsrcr.cn.gov.cn.bsrcr.cn http://www.morning.pghfy.cn.gov.cn.pghfy.cn http://www.morning.cklgf.cn.gov.cn.cklgf.cn http://www.morning.lyrgp.cn.gov.cn.lyrgp.cn http://www.morning.lkpzx.cn.gov.cn.lkpzx.cn