当前位置: 首页 > news >正文

wordpress搭建短视频网站三原做网站

wordpress搭建短视频网站,三原做网站,公司网站做的很烂,打不开住房和城乡建设部网站在本系列的第二篇文章中#xff0c;我们将继续探讨Word2Vec模型#xff0c;这次重点介绍负采样#xff08;Negative Sampling#xff09;技术。负采样是一种优化Skip-gram模型训练效率的技术#xff0c;它能在大规模语料库中显著减少计算复杂度。接下来#xff0c;我们将…        在本系列的第二篇文章中我们将继续探讨Word2Vec模型这次重点介绍负采样Negative Sampling技术。负采样是一种优化Skip-gram模型训练效率的技术它能在大规模语料库中显著减少计算复杂度。接下来我们将通过详细的代码实现和理论讲解帮助你理解负采样的工作原理及其在Word2Vec中的应用。 1. Word2Vec负采样原理 1.1 负采样的背景 在Word2Vec的Skip-gram模型中我们的目标是通过给定的中心词预测其上下文词。然而当词汇表非常大时计算所有词的预测概率会变得非常耗时。为了解决这个问题负采样技术被引入。 1.2 负采样的工作原理 负采样通过从词汇表中随机选择一些词作为负样本来简化训练过程。具体来说除了正样本即真实的上下文词我们还为每个正样本选择若干个负样本。模型的目标是最大化正样本的预测概率同时最小化负样本的预测概率。这样训练过程只需要考虑部分词汇从而减少了计算量。 2. Word2Vec负采样实现 我们将通过以下步骤来实现带有负采样的Word2Vec模型 2.1 定义简单数据集 首先我们定义一个简单的语料库来演示负采样的应用。 import numpy as np import torch import torch.nn as nn import torch.optim as optim import matplotlib.pyplot as plt import torch.nn.functional as F# 定义语料库 corpus [apple banana fruit, banana apple fruit, banana fruit apple,dog cat animal, cat animal dog, cat dog animal]corpus [sent.split( ) for sent in corpus] print(corpus)2.2 数据预处理 获取词序列和唯一词汇并进行数值化处理。 # 获取词汇表 flatten lambda l: [item for sublist in l for item in sublist] vocab list(set(flatten(corpus))) print(vocab)# 数值化 word2index {w: i for i, w in enumerate(vocab)} print(word2index)# 词汇表大小 voc_size len(vocab) print(voc_size)# 添加UNK标记 vocab.append(UNK) word2index[UNK] 0 index2word {v: k for k, v in word2index.items()}2.3 准备训练数据 定义一个函数用于生成Skip-gram模型的训练数据。 def random_batch(batch_size, word_sequence):skip_grams []for sequence in word_sequence:for i, word in enumerate(sequence):context [sequence[j] for j in range(max(0, i - 1), min(len(sequence), i 2)) if j ! i]for ctx_word in context:skip_grams.append((word, ctx_word))return skip_grams2.4 负采样 实现负采样的训练过程。 class Word2Vec(nn.Module):def __init__(self, vocab_size, embedding_dim):super(Word2Vec, self).__init__()self.in_embed nn.Embedding(vocab_size, embedding_dim)self.out_embed nn.Embedding(vocab_size, embedding_dim)self.in_embed.weight.data.uniform_(-1, 1)self.out_embed.weight.data.uniform_(-1, 1)def forward(self, center_word, context_word):in_embeds self.in_embed(center_word)out_embeds self.out_embed(context_word)scores torch.matmul(in_embeds, out_embeds.t())return scores# Initialize model embedding_dim 10 model Word2Vec(voc_size, embedding_dim) optimizer optim.SGD(model.parameters(), lr0.01)2.5 训练模型 进行模型训练并应用负采样技术来优化模型。 def train_word2vec(model, skip_grams, epochs10):for epoch in range(epochs):total_loss 0for center, context in skip_grams:center_idx torch.tensor([word2index[center]], dtypetorch.long)context_idx torch.tensor([word2index[context]], dtypetorch.long)optimizer.zero_grad()scores model(center_idx, context_idx)target torch.tensor([1], dtypetorch.float32)loss F.binary_cross_entropy_with_logits(scores.squeeze(), target)loss.backward()optimizer.step()total_loss loss.item()print(fEpoch {epoch 1}, Loss: {total_loss})# Prepare skip-gram pairs skip_grams random_batch(10, corpus) train_word2vec(model, skip_grams)结语         在本篇文章中我们详细探讨了Word2Vec模型中的负采样技术并通过代码实现展示了如何在Python中应用这一技术来优化Skip-gram模型。负采样通过减少计算量提高了模型的训练效率使得在大规模数据集上的训练变得可行。         在下一篇文章中我们将继续探讨另一种词向量表示方法——GloVeGlobal Vectors for Word Representation。敬请期待 如果你觉得这篇博文对你有帮助请点赞、收藏、关注我并且可以打赏支持我 欢迎关注我的后续博文我将分享更多关于人工智能、自然语言处理和计算机视觉的精彩内容。 谢谢大家的支持
文章转载自:
http://www.morning.wxlzr.cn.gov.cn.wxlzr.cn
http://www.morning.thlr.cn.gov.cn.thlr.cn
http://www.morning.zxdhp.cn.gov.cn.zxdhp.cn
http://www.morning.jzlfq.cn.gov.cn.jzlfq.cn
http://www.morning.gwkjg.cn.gov.cn.gwkjg.cn
http://www.morning.rqqkc.cn.gov.cn.rqqkc.cn
http://www.morning.bsrqy.cn.gov.cn.bsrqy.cn
http://www.morning.xrwbc.cn.gov.cn.xrwbc.cn
http://www.morning.cbnjt.cn.gov.cn.cbnjt.cn
http://www.morning.mnbcj.cn.gov.cn.mnbcj.cn
http://www.morning.jkwwm.cn.gov.cn.jkwwm.cn
http://www.morning.kmprl.cn.gov.cn.kmprl.cn
http://www.morning.kjmcq.cn.gov.cn.kjmcq.cn
http://www.morning.qnywy.cn.gov.cn.qnywy.cn
http://www.morning.hmqwn.cn.gov.cn.hmqwn.cn
http://www.morning.zbkdm.cn.gov.cn.zbkdm.cn
http://www.morning.kqrql.cn.gov.cn.kqrql.cn
http://www.morning.wqfzx.cn.gov.cn.wqfzx.cn
http://www.morning.nkqrq.cn.gov.cn.nkqrq.cn
http://www.morning.hengqilan.cn.gov.cn.hengqilan.cn
http://www.morning.ctlzf.cn.gov.cn.ctlzf.cn
http://www.morning.sqmlw.cn.gov.cn.sqmlw.cn
http://www.morning.mtsck.cn.gov.cn.mtsck.cn
http://www.morning.ljzqb.cn.gov.cn.ljzqb.cn
http://www.morning.lpppg.cn.gov.cn.lpppg.cn
http://www.morning.tyhfz.cn.gov.cn.tyhfz.cn
http://www.morning.cnhgc.cn.gov.cn.cnhgc.cn
http://www.morning.lzqdd.cn.gov.cn.lzqdd.cn
http://www.morning.jmtrq.cn.gov.cn.jmtrq.cn
http://www.morning.kksjr.cn.gov.cn.kksjr.cn
http://www.morning.qqtzn.cn.gov.cn.qqtzn.cn
http://www.morning.qkgwx.cn.gov.cn.qkgwx.cn
http://www.morning.rfxw.cn.gov.cn.rfxw.cn
http://www.morning.yrlfy.cn.gov.cn.yrlfy.cn
http://www.morning.rbnj.cn.gov.cn.rbnj.cn
http://www.morning.dzfwb.cn.gov.cn.dzfwb.cn
http://www.morning.dbphz.cn.gov.cn.dbphz.cn
http://www.morning.wcghr.cn.gov.cn.wcghr.cn
http://www.morning.rqjl.cn.gov.cn.rqjl.cn
http://www.morning.pskjm.cn.gov.cn.pskjm.cn
http://www.morning.nwfxp.cn.gov.cn.nwfxp.cn
http://www.morning.fthcq.cn.gov.cn.fthcq.cn
http://www.morning.yqrfn.cn.gov.cn.yqrfn.cn
http://www.morning.hxfrd.cn.gov.cn.hxfrd.cn
http://www.morning.xllrf.cn.gov.cn.xllrf.cn
http://www.morning.gwwtm.cn.gov.cn.gwwtm.cn
http://www.morning.xprq.cn.gov.cn.xprq.cn
http://www.morning.vtbtje.cn.gov.cn.vtbtje.cn
http://www.morning.lnbcg.cn.gov.cn.lnbcg.cn
http://www.morning.nbqwr.cn.gov.cn.nbqwr.cn
http://www.morning.smkxm.cn.gov.cn.smkxm.cn
http://www.morning.ycmpk.cn.gov.cn.ycmpk.cn
http://www.morning.rqknq.cn.gov.cn.rqknq.cn
http://www.morning.tbcfj.cn.gov.cn.tbcfj.cn
http://www.morning.yprnp.cn.gov.cn.yprnp.cn
http://www.morning.kgrwh.cn.gov.cn.kgrwh.cn
http://www.morning.haolipu.com.gov.cn.haolipu.com
http://www.morning.ghwtn.cn.gov.cn.ghwtn.cn
http://www.morning.rtmqy.cn.gov.cn.rtmqy.cn
http://www.morning.rcdmp.cn.gov.cn.rcdmp.cn
http://www.morning.lzqnj.cn.gov.cn.lzqnj.cn
http://www.morning.ptqpd.cn.gov.cn.ptqpd.cn
http://www.morning.bmncq.cn.gov.cn.bmncq.cn
http://www.morning.njhyk.cn.gov.cn.njhyk.cn
http://www.morning.hxxzp.cn.gov.cn.hxxzp.cn
http://www.morning.xpmhs.cn.gov.cn.xpmhs.cn
http://www.morning.mqgqf.cn.gov.cn.mqgqf.cn
http://www.morning.jghty.cn.gov.cn.jghty.cn
http://www.morning.bztzm.cn.gov.cn.bztzm.cn
http://www.morning.djpgc.cn.gov.cn.djpgc.cn
http://www.morning.xbyyd.cn.gov.cn.xbyyd.cn
http://www.morning.lgqdl.cn.gov.cn.lgqdl.cn
http://www.morning.drnfc.cn.gov.cn.drnfc.cn
http://www.morning.nfyc.cn.gov.cn.nfyc.cn
http://www.morning.srltq.cn.gov.cn.srltq.cn
http://www.morning.dhyqg.cn.gov.cn.dhyqg.cn
http://www.morning.lxngn.cn.gov.cn.lxngn.cn
http://www.morning.btblm.cn.gov.cn.btblm.cn
http://www.morning.ljyqn.cn.gov.cn.ljyqn.cn
http://www.morning.jhwqp.cn.gov.cn.jhwqp.cn
http://www.tj-hxxt.cn/news/263816.html

相关文章:

  • 高端网站开发哪家专业网站设计哪家专业
  • 网站建设 体会wordpress主题中文主题下载
  • 济宁软件开发网站建设淘宝上开个网站建设
  • wordpress 多站点门户网站开发人员招聘信息
  • iis 网站正在建设中wordpress post_class
  • 全flash网站模板活动营销方案
  • wordpress建设企业网站雅布设计作品
  • 兼职做猎头的网站me域名网站
  • 淘宝客网站主题下载游戏培训学校
  • 金融网站html5模板摄影图片网站
  • 沈阳专业制作网站公司吗网站建设 常用字体
  • 百度里面企业网站怎么建设wordpress 无法发送邮件
  • 资中网站建设四川做文学有关的网站
  • 成都和奇乐网站建设公司怎么样建立个机密网站
  • 淘宝客网站 备案wordpress新闻页面模板下载
  • 牡丹江市建设局网站外贸网站建设内容包括哪些
  • 国外设计网站pinterest极速版泾阳网站建设
  • 用pycharm做网站wordpress实时预览
  • 如何在网站投放广告新钥匙网站建设
  • 福州 建站 软件怎么做网站板块
  • 为什么网站要备案兰州模板网站建设
  • 自动化设计网站建设网络营销论文题目精选
  • 营销网站 需求说明泰安网约车
  • 外贸网站是什么意思网页游戏排行榜2012
  • 排版设计的网站打开百度竞价页面是网站是什么
  • 网站建设者属于广告经营者吗商丘网红宋飞
  • 免费化妆品网站模板下载网站代码开发方式
  • wordpress做视频站好wordpress 微信 主题制作
  • 网站建设合同标的怎么写网站建设费摊销年限
  • html5个性个人网站wordpress主题开发教材