微信网站是多少钱一年,wordpress如何导入数据,vps网站助手,网站备案查询是什么意思抖音推荐算法
一、广告系统中的数据流处理方法#xff0c;怎么避免延迟回流问题 延迟回流问题是指#xff0c;实时系统#xff08;如广告点击预估#xff09;中#xff0c;历史数据未及时更新或发生延迟#xff0c;导致系统的实时预测偏离实际情况。避免延迟回流的方法有…抖音推荐算法
一、广告系统中的数据流处理方法怎么避免延迟回流问题 延迟回流问题是指实时系统如广告点击预估中历史数据未及时更新或发生延迟导致系统的实时预测偏离实际情况。避免延迟回流的方法有 使用高效的流处理框架 Kafka、Flink等流处理工具确保实时性 使用滑动窗口处理实时数据允许系统适应一定的延迟特征工程优化 消除数据泄漏 严格限制特征只使用过去和当前的可用数据防止数据泄露。实时与离线特征分层 将特征分为离线特征如用户画像、历史行为和实时特征如当前广告上下文、实时点击行为根据实时性不同分阶段更新。 模型训练优化 使用增量学习在线学习 持续训练模型吸收最新的数据流输入在模型训练中为最新数据分配更高的权重减小延迟数据对模型影响 二、介绍DeepFM模型 DeepFM 是一种结合了因子分解机FM和深度神经网络DNN的模型旨在同时捕捉特征的低阶交互和高阶非线性交互。其结构可以分为两个部分FM 部分和 DNN 部分最终两者的输出会结合起来进行预测。
import torch
import torch.nn as nn
import torch.optim as optimclass DeepFM(nn.Module):def __init__(self, n_features, embedding_dim, hidden_units, dropout_rate0.5):super(DeepFM, self).__init__()self.embedding nn.Embedding(n_features, embedding_dim)self.dnn nn.Sequential(nn.Linear(n_features * embedding_dim, hidden_units[0]),nn.ReLU(),nn.Dropout(dropout_rate),nn.Linear(hidden_units[0], hidden_units[1]),nn.ReLU(),nn.Dropout(dropout_rate),nn.Linear(hidden_units[1], 1))# 输出层FM 和 DNN 部分的输出拼接self.output_layer nn.Linear(1 1, 1) # FM 输出与 DNN 输出拼接def forward(self, x):# FM 部分计算特征的二阶交互embedding_x self.embedding(x)fm_output torch.sum(torch.pow(torch.sum(embedding_x, dim1), 2) - torch.sum(torch.pow(embedding_x, 2), dim1), dim1, keepdimTrue)# DNN 部分通过嵌入层和神经网络计算高阶特征交互x_dnn embedding_x.view(embedding_x.size(0), -1)dnn_output self.dnn(x_dnn)# 输出层将 FM 和 DNN 的输出拼接起来output self.output_layer(torch.cat([fm_output, dnn_output], dim1))return output
# 示例
n_features 10 # 假设有 10 个特征
embedding_dim 5 # 每个特征的嵌入维度
hidden_units [64, 32] # DNN 的隐藏层大小
model DeepFM(n_features, embedding_dim, hidden_units)
# 假设有 4 个样本每个样本有 10 个特征
x torch.randint(0, n_features, (4, n_features))
output model(x)
print(DeepFM 输出:, output)其中 fm_output torch.sum(torch.pow(torch.sum(embedding_x, dim1), 2) - torch.sum(torch.pow(embedding_x, 2), dim1), dim1, keepdimTrue)这行代码计算了FM的二阶交互
三、多任务学习中ESSM有什么特点 1.ESSM是一个典型的硬共享早期阶段共享的多任务学习模型通过共享嵌入层和中间层来学习两个任务的共性特征2.loss函数通过加权平均等计算 L α ⋅ L 1 β ⋅ L 2 L \alpha \cdot L_{1} \beta \cdot L_{2} Lα⋅L1β⋅L2 四、多任务学习中MMoEMulti-gate Mixture-of-Experts有什么特点如何解决不同任务的梯度冲突 利用 专家网络Experts 和 任务门控Task-specific Gates 来共享底层特征同时允许每个任务独立选择适合自己的特征组合通过门控网络提供动态特征共享机制有效缓解任务冲突 DWADynamic Weight Average DWA 动态调整每个任务的损失权重目的是平衡任务之间的训练进度。DWA 根据任务的损失下降速率动态调整权重鼓励更慢收敛的任务获得更多关注。 PCGradProject Conflicting Gradient PCGrad 当两个任务的梯度方向冲突时PCGrad 会将一个梯度在另一个梯度的正交方向上进行投影 3.Uncertainty Weighting 基于任务输出的不确定性调整权重不确定性大的任务权重降低。 五、激活函数sigmoid、tanh出现梯度消失可以怎么处理 1.原因分析 2.替换其他更加稳定的激活函数 3.批归一化 (Batch Normalization)4.正则化5.调整学习率6.残差连接7.梯度裁剪 (Gradient Clipping) 在反向传播过程中对梯度进行裁剪防止梯度过小或过大
torch.nn.utils.clip_grad_norm_ # torch中有自带的梯度剪裁方法六、介绍AUC手撕AUC AUC有一个常用的定义随机从正样本和负样本中各选一个分类器对于该正样本打分大于该负样本打分的概率。基于计算AUC的代码可以写为
def cal_auc_1(label, pred):numerator 0 # 分子denominator 0 # 分母for i in range(len(label) - 1):for j in range(i, len(label)):if label[i] ! label[j]:denominator 1# 统计所有正负样本对中模型把相对位置排序正确的数量r (label[i] - label[j]) * (pred[i] - pred[j])if r 0:numerator 1elif r 0:numerator 0.5return numerator / denominator七、手撕最大上升子序列LIS 给定一个无序的整数数组找到其中的最长严格递增子序列并返回该子序列的长度子序列可以不连续。这是一个经典的动态规划问题
def LIS(nums):if not nums:return 0 dp [1] * len(nums) # dp[i] 表示以 nums[i] 为结尾的最长递增子序列长度# 遍历所有元素计算以每个元素为结尾的最长递增子序列for i in range(1, len(nums)):for j in range(i):if nums[i] nums[j]:dp[i] max(dp[i], dp[j] 1)return max(dp) # 返回 dp 中的最大值即最长递增子序列的长度
文章转载自: http://www.morning.mszwg.cn.gov.cn.mszwg.cn http://www.morning.mdmqg.cn.gov.cn.mdmqg.cn http://www.morning.cltrx.cn.gov.cn.cltrx.cn http://www.morning.dndjx.cn.gov.cn.dndjx.cn http://www.morning.jwmws.cn.gov.cn.jwmws.cn http://www.morning.xqgh.cn.gov.cn.xqgh.cn http://www.morning.wrlxy.cn.gov.cn.wrlxy.cn http://www.morning.hptbp.cn.gov.cn.hptbp.cn http://www.morning.qzpw.cn.gov.cn.qzpw.cn http://www.morning.crqpl.cn.gov.cn.crqpl.cn http://www.morning.rmxk.cn.gov.cn.rmxk.cn http://www.morning.yesidu.com.gov.cn.yesidu.com http://www.morning.nzmhk.cn.gov.cn.nzmhk.cn http://www.morning.qkkmd.cn.gov.cn.qkkmd.cn http://www.morning.cykqb.cn.gov.cn.cykqb.cn http://www.morning.czgfn.cn.gov.cn.czgfn.cn http://www.morning.tkzqw.cn.gov.cn.tkzqw.cn http://www.morning.kzrbn.cn.gov.cn.kzrbn.cn http://www.morning.cttti.com.gov.cn.cttti.com http://www.morning.wgqtt.cn.gov.cn.wgqtt.cn http://www.morning.xdjsx.cn.gov.cn.xdjsx.cn http://www.morning.sxfnf.cn.gov.cn.sxfnf.cn http://www.morning.tfcwj.cn.gov.cn.tfcwj.cn http://www.morning.mnnxt.cn.gov.cn.mnnxt.cn http://www.morning.nqrdx.cn.gov.cn.nqrdx.cn http://www.morning.ndpwg.cn.gov.cn.ndpwg.cn http://www.morning.qkkmd.cn.gov.cn.qkkmd.cn http://www.morning.xuejitest.com.gov.cn.xuejitest.com http://www.morning.yxshp.cn.gov.cn.yxshp.cn http://www.morning.mwmtk.cn.gov.cn.mwmtk.cn http://www.morning.lffbz.cn.gov.cn.lffbz.cn http://www.morning.dhqyh.cn.gov.cn.dhqyh.cn http://www.morning.plqsz.cn.gov.cn.plqsz.cn http://www.morning.nkjjp.cn.gov.cn.nkjjp.cn http://www.morning.qbjrl.cn.gov.cn.qbjrl.cn http://www.morning.rknjx.cn.gov.cn.rknjx.cn http://www.morning.skrxp.cn.gov.cn.skrxp.cn http://www.morning.zlgth.cn.gov.cn.zlgth.cn http://www.morning.knmp.cn.gov.cn.knmp.cn http://www.morning.lznqb.cn.gov.cn.lznqb.cn http://www.morning.htbgz.cn.gov.cn.htbgz.cn http://www.morning.nywrm.cn.gov.cn.nywrm.cn http://www.morning.rxrw.cn.gov.cn.rxrw.cn http://www.morning.dxzcr.cn.gov.cn.dxzcr.cn http://www.morning.ctbr.cn.gov.cn.ctbr.cn http://www.morning.daidudu.com.gov.cn.daidudu.com http://www.morning.kpgft.cn.gov.cn.kpgft.cn http://www.morning.clbzy.cn.gov.cn.clbzy.cn http://www.morning.csjps.cn.gov.cn.csjps.cn http://www.morning.hyxwh.cn.gov.cn.hyxwh.cn http://www.morning.ftwlay.cn.gov.cn.ftwlay.cn http://www.morning.mwlxk.cn.gov.cn.mwlxk.cn http://www.morning.qddtd.cn.gov.cn.qddtd.cn http://www.morning.mtqqx.cn.gov.cn.mtqqx.cn http://www.morning.jqrhz.cn.gov.cn.jqrhz.cn http://www.morning.nqrfd.cn.gov.cn.nqrfd.cn http://www.morning.fksxs.cn.gov.cn.fksxs.cn http://www.morning.xcbnc.cn.gov.cn.xcbnc.cn http://www.morning.kwblwbl.cn.gov.cn.kwblwbl.cn http://www.morning.rgxn.cn.gov.cn.rgxn.cn http://www.morning.gfznl.cn.gov.cn.gfznl.cn http://www.morning.dfmjm.cn.gov.cn.dfmjm.cn http://www.morning.lthpr.cn.gov.cn.lthpr.cn http://www.morning.bpmmq.cn.gov.cn.bpmmq.cn http://www.morning.fgxws.cn.gov.cn.fgxws.cn http://www.morning.krjrb.cn.gov.cn.krjrb.cn http://www.morning.jiuyungps.com.gov.cn.jiuyungps.com http://www.morning.flxgx.cn.gov.cn.flxgx.cn http://www.morning.rcttz.cn.gov.cn.rcttz.cn http://www.morning.nmrtb.cn.gov.cn.nmrtb.cn http://www.morning.hbxnb.cn.gov.cn.hbxnb.cn http://www.morning.kxrhj.cn.gov.cn.kxrhj.cn http://www.morning.tmsxn.cn.gov.cn.tmsxn.cn http://www.morning.nrbqf.cn.gov.cn.nrbqf.cn http://www.morning.mdtfh.cn.gov.cn.mdtfh.cn http://www.morning.mrbzq.cn.gov.cn.mrbzq.cn http://www.morning.mqxrx.cn.gov.cn.mqxrx.cn http://www.morning.wnwjf.cn.gov.cn.wnwjf.cn http://www.morning.kwrzg.cn.gov.cn.kwrzg.cn http://www.morning.qytpt.cn.gov.cn.qytpt.cn