当前位置: 首页 > news >正文

如何分析一个网站做的怎么样管理培训

如何分析一个网站做的怎么样,管理培训,无锡优化网站公司,网站建设特效素材模型总览 第一篇《Biological structure and function emerge from scaling unsupervised learning to 250 million protein sequences 》ESM-1b 第二篇《MSA Transformer》在ESM-1b的基础上作出改进,将模型的输入从单一蛋白质序列改为MSA矩阵,并在Tran…

模型总览

  • 第一篇《Biological structure and function emerge from scaling unsupervised learning to 250 million protein sequences 》ESM-1b

  • 第二篇《MSA Transformer》在ESM-1b的基础上作出改进,将模型的输入从单一蛋白质序列改为MSA矩阵,并在Transformer中加入行、列两种轴向注意力机制,对位点分别计算第个序列和第个对齐位置的影响,充分利用二维输入的优势。

  • 第三篇《Language models enable zero-shot prediction of the effects of mutations on protein function 》中提出了ESM-1v模型,该模型与ESM-1b模型构架相同,只是预训练数据集改为UR90(ESM-1b预训练数据集为UR50)

  • 第四篇《Language models of protein sequences at the scale of evolution enable accurate structure prediction》,ESMFold,提出了ESM2,代替MSA部分和Structure Template部分,对Postion Embedding做了修改,可以支持更长的氨基酸序列编码

模型名称input普适性模型论文
ESM-1bsingle sequencefamily-specifictransformer encoderBiological structure and function emerge from scaling unsupervised learning to 250 million protein sequences
ESM-MSA-1bMSAfew-shot加了两个行列注意力机制MSA Transformer
ESM-1vsingle sequencezero-shottransformer encoderLanguage models enable zero-shot prediction of the effects of mutations on protein function
ESM-2single sequencezero-shottransformer encoderLanguage models of protein sequences at the scale of evolution enable accurate structure prediction

ESM-1B的模型大小如下所示
在这里插入图片描述

ESM2模型大小如下所示(esm-github截图):
在这里插入图片描述

ESM-2 embedding(不同于word2vec,和BERT一样?):

Bert输入Embeddings包含三个部分,第一部分为token的embeddings,第二部分为位置编码的embeddings,第三部分为token所属段落编码的embeddings

  • tokenizer(由wordpiece创建)对输入蛋白会头尾添加cls、eos特殊字符,占两个字符长度 ,加Padding Token [PAD]
  • tokenizer会创建固定大小的词汇表,进行分词,查词汇表将token转化成索引列表

tokenizer首先检查整个单词是否在词汇表中。如果没有,则尝试将单词分解为词汇表中包含的尽可能大的子单词,最后将单词分解为单个字符。注意,由于这个原因,我们总是可以将一个单词表示为至少是它的单个字符的集合
self.word_embeddings = nn.Embedding(config.vocab_size, config.hidden_size, padding_idx=0),相同位置输出相同
将这3个ID序列输入到BERT中就会按照BERT模型的定义依次将各种ID转换为对应的embedding
Token Embeddings, (1, n, 768) ,词的向量表示
Segment Embeddings, (1, n, 768),辅助BERT区别句子对中的两个句子的向量表示,EMS2将蛋白质视为几个句子?
Position Embeddings ,(1, n, 768) ,让BERT学习到输入的顺序属性

  • 分词后送入token embedding层从而将每一个词转换成向量形式

ESM-2 output:

和BERT一样

http://www.tj-hxxt.cn/news/32293.html

相关文章:

  • 网站后台登陆验证码东莞seo优化推广
  • 京东商城网站的搜索引擎营销做的案例分析天津谷歌优化
  • 郑州网站建设公司招聘seo外链代发
  • 请稍后重试(3008)排名优化是怎么做的
  • 机械类网站模板长沙有实力的关键词优化价格
  • 拍卖网站开发线上营销推广方式
  • 域名做网站自己的电脑网站排名推广工具
  • 亿网中国网站管理系统seo入门教程网盘
  • 网站维护工作台湾搜索引擎
  • 优化网站排名方法教程站长工具果冻传媒
  • 随州制作网站如何让百度收录自己信息
  • 想通过网站卖自己做的东西app软件开发
  • 做个有用网站搜索引擎推广的费用
  • 百能网是哪家公司做的网站上海疫情突然消失的原因
  • 上线了 做商务网站开封网站推广公司
  • 企业招聘网站推广渠道怎么写
  • 公司网站域名解析谁来做营销培训视频课程免费
  • 网站开发需求用什么软件seo入口
  • 个体户做网站有用吗百度指数的数值代表什么
  • 找个靠谱网站做推广推广计划方案模板
  • 云南凡科建站哪家好百度官网网站
  • 疫情又要来了吗最新消息十堰seo优化
  • 淘客做网站的软件全网热搜关键词排行榜
  • 大众汽车网站建设seo深圳优化
  • 网站恢复国外网络推广
  • 网站开发的技术简介seo推广话术
  • 郑州网站推广哪家好朝阳seo建站
  • 做电商设计有什么好的网站推荐网站关键词优化技巧
  • 德国 网站建设市场营销活动策划方案
  • 杭州高端网站设计公司友链目录网