当前位置: 首页 > news >正文

做dota2菠菜网站seo自动推广工具

做dota2菠菜网站,seo自动推广工具,趣闲赚,网站前台设计模板说明:该系列文章从本人知乎账号迁入,主要原因是知乎图片附件过于模糊。 知乎专栏地址: 语音生成专栏 系列文章地址: 【GPT-SOVITS-01】源码梳理 【GPT-SOVITS-02】GPT模块解析 【GPT-SOVITS-03】SOVITS 模块-生成模型解析 【G…

说明:该系列文章从本人知乎账号迁入,主要原因是知乎图片附件过于模糊。

知乎专栏地址:
语音生成专栏

系列文章地址:
【GPT-SOVITS-01】源码梳理
【GPT-SOVITS-02】GPT模块解析
【GPT-SOVITS-03】SOVITS 模块-生成模型解析
【GPT-SOVITS-04】SOVITS 模块-鉴别模型解析
【GPT-SOVITS-05】SOVITS 模块-残差量化解析
【GPT-SOVITS-06】特征工程-HuBert原理

1.概述

在 GPT-SOVITS 实现中,残差量化层是一个相对核心的改动。如前文所述,在 AR模块训练时,其semantic特征是基于预训练生成模型中残差量化层的输出。残差量化层的核心代码如下:

在这里插入图片描述

  • ResidualVectorQuantizer 是残差量化编码器的封装,在生成模型中构建
  • ResidualVectorQuantization 是残差量化编码器的具体实现,其默认包含8个量化编码器
  • VectorQuantization。层与层之间用的是输入值和量化值的残差。
  • VectorQuantization 是具体某一层的量化编码,将输入数据进行量化编码
  • VectorQuantization 在进行量化编码时,其编码字典的实现为
    Euclideanbook。其将输入数据做k均值聚类实现一个编码器,将k均值的中心点,作为量化字典。

2、EuclideanCodebook 实现

2.1、原理

在这里插入图片描述

  • 输入数据大小为【num_sample,dim】,前者为输入数据数量,后者为每个数据的向量维度 基于k均值聚类,codebook_size
  • 参数为聚类K的中心点数量,即字典大小,kmeans_iters为迭代次数
  • 完成k均值聚类后,原始数据各值与中心点计算欧式距离,以就近原则选择中心点作为量化的替代值

2.2、调试代码参考

book = EuclideanCodebook(dim=30,codebook_size=1024,kmeans_init=True,kmeans_iters=50,decay=0.99,epsilon=1e-5,threshold_ema_dead_code=2)quantize, embed_ind = book.forward(sample_data)

3、ResidualVectorQuantizer 实现

3.1、原理

在这里插入图片描述

  • 残差量化编码器有默认8个独立的量化器构成
  • 在每一层的输出时输出三个值
        all_losses    = []all_indices   = []out_quantized = []n_q = n_q or len(self.layers)for i, layer in enumerate(self.layers[:n_q]):# quantized: 量化后的特征向量# indices:  量化后的特征向量所对应的索引# loss   :  量化后的特征向量和原始特征的损失quantized, indices, loss = layer(residual)   # 进入下一层的输入是残差residual = residual - quantized              # 残差quantized_out = quantized_out + quantized    # 基于量化输出的总体累加输出all_indices.append(indices)all_losses.append(loss)if layers and i in layers:out_quantized.append(quantized)out_losses, out_indices = map(torch.stack, (all_losses, all_indices))return quantized_out, out_indices, out_losses, out_quantized

3.2、调试代码参考

rvq = ResidualVectorQuantization(dim=30,codebook_size=1024,num_quantizers=8,decay=0.99,kmeans_init=True,kmeans_iters=50,threshold_ema_dead_code=2)sample_data_1 = torch.rand(1,30, 1000)rvq.forward(sample_data_1, layers=[0])codes   = rvq.forward(sample_data_1)indices = rvq.encode(sample_data_1)print(rvq.decode(indices))
http://www.tj-hxxt.cn/news/62120.html

相关文章:

  • 新手怎样做网站推广厂房网络推广平台
  • 成都最正规的装修公司站长工具seo综合查询是什么
  • 用dw制作个介绍家乡网站百度指数查询排行榜
  • 常熟做网站优化网站seo入门基础教程书籍
  • 网络营销用什么软件昆明seo博客
  • 360免费wifi怎么安装宁波网络推广优化方案
  • 合适做服装的国际网站发外链平台
  • 两学一做的做题网站是多少游戏推广员是违法的吗
  • 网页视频下载器免费提供seo服务
  • 之江汇学校网站建设百度搜索关键词排名优化
  • 抖音小姐姐做我女朋友网站世界羽联最新排名
  • 域名空间做网站石家庄新闻网头条新闻
  • 推销什么企业做网站和app6百度站长平台论坛
  • 如何让网站收录百度官网登录入口
  • 上海高端网站制作站霸科技成都关键词优化排名
  • 深圳顶级做网站公司排名专业seo网站优化推广排名教程
  • 洛阳网站建设招聘信息查询网站相关网址
  • 做go分析的网站如何进行市场推广
  • 网站开发有关书籍网站宣传的方法有哪些
  • 天津百度分公司奉化网站关键词优化费用
  • 郑州网站制作咨询上海网络推广需要多少
  • 网站建设维修服务流程西部数码域名注册
  • 网站一次性链接怎么做的可以访问违规网站的浏览器
  • 成都网站设计培训跨境电商平台注册开店流程
  • 百度站长查询工具网店代运营诈骗
  • 联想北京有限公司北京网站优化策略
  • 专门做简历的网站国家免费培训学校
  • 黄色为主的网站企业官网推广
  • 上海整形网站建设关键词查网站
  • 用商城系统做教育网站广州番禺最新发布