当前位置: 首页 > news >正文

四川省建设监理管理协会网站石家庄做网站公司

四川省建设监理管理协会网站,石家庄做网站公司,网站开发方面知识,五通桥移动网站建设第1章 特征工程 1、为什么需要对数值类型的特征做归一化#xff1f; #xff08;1#xff09;消除量纲#xff0c;将所有特征统一到一个大致相同的区间范围#xff0c;使不同指标之间具由可比性#xff1b; #xff08;2#xff09;可以加快梯度下降收敛的速度#…第1章 特征工程 1、为什么需要对数值类型的特征做归一化 1消除量纲将所有特征统一到一个大致相同的区间范围使不同指标之间具由可比性 2可以加快梯度下降收敛的速度归一化后让等高线的分布更加均匀类似于一个圆减少求解过程中参数寻优的震荡更加笔直的找到最优解。 常用的归一化方式有两种 1线性函数归一化min-max scaling xnomX−XminXmax−Xminx_{nom} \frac{X-X_{min}}{X_{max}-X_{min}}xnom​Xmax​−Xmin​X−Xmin​​ 将数映射到[0,1]之间实现对原始数据的等比缩放。但存在量纲故此方式仅适用于数据不符合正态分布、不涉及距离度量、协方差计算的时候例如图像处理RGB转化为[0 255]范围。 2零均值归一化z-score normalization zx−μσz \frac{x-\mu}{\sigma}zσx−μ​ 其中μ\muμ为均值σ\sigmaσ为方差使特征的均值变为0方差变为1。将有量纲的表达式变为无量纲的表达式适用于分类、聚类算法中需要使用距离来度量相似性或PCA进行降维的时候。 注决策树模型不适合归一化它使用的信息增益比跟特征是否归一化无关。 2、怎样处理类别型特征 类别特征是只能在有限选项内取值的特征通常以字符串形式输入。故除决策树外其余模型使用前需要将其转化为数值型特征才能处理。 1序号编码Ordinal Encoding 使用具有大小关系的数值ID来处理类别间具有大小关系的数据。例如低、中、高会用1、2、3表示。 2独热编码One-hot Encoding 使用稀疏向量来处理类别间不具有大小关系的特征。例如红、黄、蓝用(1,0,0)、(0,1,0)、(0,0,1)。 注意1使用稀疏向量来节省空间2配合特征选择来降低维度 3二进制编码Binary Encoding 是对One-hot的改进先用序号编码给每个类别赋予一个类别ID然后将类别ID对应的二进制编码作为结果。 实际上利用二进制对ID进行哈希映射最终得到0/1特征向量且维数少于独热编码节省空间。 3、什么是组合特征如何处理高维组合特征 为提高复杂关系拟合能力将一阶离散特征两两组合构成高阶组合特征。 对于高维组合特征可能会面临学习参数规模过大问题一种处理方式是将组合前的各个特征用更小的低维特征向量来表示然后用这个低维向量组合特征。类似于矩阵分解 4、怎样有效地找到组合特征 基于决策树的特征组合寻找。 其决策树可采用梯度提升决策树思想是每次都在之前构建的决策树的残差上构建下一棵决策树。 5、有哪些文本表示模型它们各有什么优缺点 6、在图像分类任务中训练数据不足会带来什么问题如何缓解数据量不足带来的问题 数据量不足可能会产生过拟合现象模型在测试集上的泛化效果不强。 处理方式 1基于模型的方法采用降低过拟合风险的措施例如简化模型、正则化等。 2基于数据的方法进行数据扩充Data Augmentaton即根据一些先验知识在保持特定信息的前提下对原始数据进行适当变换以达到扩充数据集的效果。例如对图像空间进行变化。对图像进行特征提取后再其特征空间内进行变化利用通用的数据扩充或上采样技术。借助已有的其他模型或数据进行迁移学习。 7、Word2Vec是如何工作的它和隐狄利克雷模型有什么区别与联系 * 补充 8、 第2章 模型评估 1、准确率的局限 2、精确率与召回率的权衡 3、平方根误差的“意外” 4、什么是ROC曲线 5、如何绘制ROC曲线 6、如何计算AUC 7、ROC曲线相比P-R曲线有什么特点 8、为什么在一些场景中要使用余弦相似度而不是欧氏距离 1欧氏距离体现数值上的绝对差异而余弦相似度体现方向上的相对差异。 2欧式距离的数值受维度的影响范围不固定。余弦相似度更关注相对差异即向量之间的角度关系。不论是在高维还是低维空间依然保持“相同时为1正交时为0相反时为-1”的性质。 3例如用户A1,0和用户B0,1采用欧氏距离会很小采用余弦相似度会很大。如果想要表示用户之间的相对差异时余弦相似度会更好。 再比如用户A1,10和用户1,100采用欧氏距离会很大采用余弦距离会很近。如果更关注数值绝对差异使用欧氏距离会更好。 9、余弦距离是否是一个严格定的的距离 10、为什么要进行在线A/B测试 11、如何进行线上A/B测试 12、如何划分实验组和对照组 13、模型评估过程中的验证方法及其优缺点 14、自助法采样在极限情况下会有多少数据从未被选择过 15、超参数有哪些调优方法 16、过拟合和欠拟合具体是指什么现象 17、能否说出几种降低过拟合和欠拟合风险的方法 * 补充 18、 第3章 经典算法 1、线性回归 1机器学习中有显示解的模型是哪个 线性回归 2、逻辑回归 3、决策树 决策树是一种自上而下对样本数据进行树形分类的过程由结点和有向边组成。结点分为内部结点和叶节点其中每个内部结点表示一个特征或属性叶结点表示类别。常被用于分类问题和回归问题。 1决策树有哪些启发函数 从若干不同的决策树中选取最优的决策树是一个NP完全问题因此长采用启发式学习的方法去构建一颗满足启发式条件的决策树。 常用的决策树算法有ID3最大信息增益、C4.5最大信息增益比、CART最大基尼指数。 ID3 1采用信息增益作为评价指标会倾向于取值较多的特征。信息增益反映的是给定条件以后不确定性减少的程度特征取值越多就意味着确定性越高条件熵越小信息增益越大。但容易产生过拟合现象导致泛化能力弱。 2ID3只能处理离散型变量。可以再每个节点上产生出多叉分支且每个特征在层级之间不会复用。 3ID3对样本特征缺失值比较敏感。 4ID3通过剪枝来权衡树的准确性与泛化能力。 C4.5 1是对ID3进行的优化引入信息增益比一定程度上对取值比较多的特征进行惩罚避免ID3出现过拟合的特性提升决策树的泛化能力。 2C4.5可以处理连续型变量。通过对数据排序之后找到类别不同的分割线作为切分点根据切分点把连续属性转换为布尔型从而将连续型变量转换为多个取值区间的离散型变量。可以再每个节点上产生出多叉分支且每个特征在层级之间不会复用。 3C4.5对样本特征缺失值可以处理。 4C4.5通过剪枝来权衡树的泛化能力。 CART 1分类回归树Classification and Regression Tree不仅可以用于分类也可以用于回归任务。 2CART在构建时每次都会对特征进行二值划分因此可以很好地适用于连续型变量。CART每个结点只会产生出两个分支因此最后会形成一颗二叉树且每个特征可以重复使用。 3CART对样本特征缺失值可以处理。 4CART直接利用全部数据发现所有可能的树结构进行对比。 2如何对决策树进行剪枝 4、SVM 1在空间上线性可分的两类点分别向SVM分类的超平面上做投影这些点在超平面上的投影任然线性可分吗 对于任意线性可分的两组点它们在SVM分类的超平面上的投影 都是线性不可分的。 方法一 反证法 使用反证法来证明若有两组线性可分的点在超平面上投影和仍然线性可分。那么可以找到一个更优的超平面将原来的两组点分割开来但当投影到该超平面时可以发现投影上的点不能线性分离。前提SVM仅依赖于支持向量 方法二 超平面分离定理Separating Hyperplane Theorem, SHT 对于不想交的两个凸集存在一个超平面将两个凸集分离。对于二维的情况两个凸集间距离最短两点连线的中垂线就是一个将它们分离的超平面。 2是否存在一组参数使SVM训练误差为0 3训练误差为0的SVM分类器一定存在吗 4加入松弛变量的SVM的训练误差可以为0吗 5线性回归和逻辑回归的区别是什么 区别 1线性回归处理回归问题逻辑回归处理分类问题。 2逻辑回归的因变量取值是一个二元分布给定自变量和超参数后模型学习得到的是因变量的期望基于此期望来处理预测分类问题。线性回归中求解的是多项式假设预测模型可以用来近似真实模型目标便是让预测模型与真实模型之间的误差最小使用此方式来处理回归问题。 3逻辑回归中的因变量是离散的线性回归中的因变量是连续的。 相同 1二者都使用了极大似然估计来对训练样本建模。线性回归使用最小二乘法实际上就是在自变量与超参数确定因变量y服从正态分布的假设下使用极大似然估计的一种简化。而逻辑回归中通过似然函数的学习来得到最佳的参数。 2在求超参数的过程中都是用梯度下降法。 6当使用逻辑回归处理多标签的分类问题时有哪些常见做法分别应用于哪些场景它们之间又有怎样的关系 第4章 降维 第5章 非监督学习 1、K-means聚类 聚类是在事先并不知道任何样本类别标签的情况 下通过数据之间的内在关系把样本划分为若干类别使得同类别样本之间的相 似度高不同类别之间的样本相似度低。 基本思想通过迭代方式寻找K个簇Cluster的一种划分方案使得聚类结果对应的代价函数最小。代价函数通常为欧氏距离 1简述K-means算法的具体步骤 1数据预处理进行归一化0-1均值、线性均值、离群点处理基于统计 2随机选取K个簇中心 3定义代价函数一般为欧氏距离 4进行迭代重复选取每个样本分配到距离最近的簇然后重新计算簇中心。直至簇中心不再变化或者达到规定的迭代次数。 2K-means算法的优缺点是什么如何对其进行优化 缺点 1受初值和离群点的影响每次的结果不稳定。 2结果通常不是全局最优而是局部最优解效果受初始值的影响大。 3无法很好地解决数据簇分布差别比较大的情况 4不太适用于离散分类等 优点 1对大数据集K-means算法相对是可伸缩和高效的它的计算复杂度是O(NKt)接近于线性其中N是数据对象的数量K是聚类的簇数t是迭代的轮数。 2尽管最终得到的是局部最优解但一般情况下此解已可满足聚类的需求。 调优 1数据归一化和离群点处理 2合理选择K值 根据经验或多次试验选取。 手肘法是一个经验方法选择拐点处的K值缺点就是不够自动化。Gap Statistic方法是比先进的方法可以不需要用肉眼进行判断而只需要找到最大的Gap Statistic所对应的K值即可因此该方法也适用于批量化作业。Gap Statistic定义为 Gap(K)E(logDk)−logDkGap(K)E(logD_k)-logD_kGap(K)E(logDk​)−logDk​ 其中DkD_kDk​为分为之前分为K簇时对应的损失函数。 该方法一般通过蒙特卡洛模拟产生我们在样本所在的区域内按照均匀分布随机地产生和原始样本树一样多的随机样本并对这个随机样本做K均值得到一个DkD_kDk​重复多次就可以得出E(logDk)E(logD_k)E(logDk​)的近似值。Gap(K)Gap(K)Gap(K)的物理含义可视为随机样本的损失与实际样本的损失之差。 3采用核函数 传统的欧氏距离度量方式使得K-means算法本质上假设了各个数据簇的数据具有一样的先验概率并呈现球形或者高维球形分布但这种分布在实际生活中并不常见。对于非凸的数据分布形状时可能需要引入核函数来优化这时的算法称为核K-means算法。 主要思想是通过一个非线性映射将输入空间中的数据点映射到高维的特征空间中并在新的特征空间中进行聚类。非线性映射增加了数据点线性可分的概率从而在经典的聚类算法失效的情况下通过引入核函数可以达到更为准确的聚类结果。 3针对K-means算法的缺点有哪些改进的模型 K-means算法 ISODATA算法 4证明K-means算法的收敛性 高斯混合模型 第6章 概率图模型 第7章 优化算法 机器学习算法 模型表征 模型评估 优化算法 1、有监督学习涉及的损失函数有哪些请列举并简述它们的特点。 0-1损失函数 L0−1(f,y)1fy≤0L_{0-1}(f,y)1_{fy≤0}L0−1​(f,y)1fy≤0​ 其中 1p1_p1p​ 是指示函数当 ppp 为真时取1ppp 为假时取0。可以很直观地反映分类的错误率但由于是非凸、非光滑的特点使得该算法很难直接对该函数进行优化。 Hinge Loss 铰链损失函数0-1损失函数的代理损失函数 Lhinge(f,y)max{0,1−fy}L_{hinge}(f, y) max\{0, 1 - fy\}Lhinge​(f,y)max{0,1−fy} 其中 fy≥1fy≥1fy≥1 时不对其做任何惩罚输出为0fy1fy1fy1 时输出 1−fy1-fy1−fy。通常被用于最大间隔算法(maximum-margin)而最大间隔算法又是SVM(支持向量机support vector machines)用到的重要算法(注意SVM的学习算法有两种解释1. 间隔最大化与拉格朗日对偶2. Hinge Loss)。它是0-1损失函数相对紧的凸上界但在 fy1fy1fy1 处不可导因此不能用梯度下降法进行优化而是用次梯度下降法。 Logistic损失函数0-1损失函数的代理损失函数 Llogistic(f,y)log2(1e−fy)L_{logistic}(f, y) log_2(1 e^{-fy})Llogistic​(f,y)log2​(1e−fy) 它是0-1损失函数的凸上界且该函数出处光滑可以使用梯度下降法进行优化。但该损失函数对所有的样本点都有所惩罚因此对异常值相对更敏感一些。 Cross Entropy交叉熵损失函数f∈[−1,1]f \in [-1,1]f∈[−1,1] 时0-1损失函数代理函数 Lcrossentropy(f,y)−log2(1fy2)L_{cross \ entropy}(f, y) - log_2(\frac{1 fy}{2})Lcross entropy​(f,y)−log2​(21fy​)交叉熵损失函数也是0-1损失函数的光滑凸上界。 2、凸优化基本概念 1机器学习中的优化问题哪些是凸优化问题哪些是非凸优化问题请举例。 凸优化例子线性回归、Logistic 回归、SVM 非凸优化例子PCA、深度神经网络模型 、L1正则化与稀疏性 稀疏性说白了就是模型的很多参数为0。相当于是对模型进行依次特征选择后只留下一些比较重要的特征提高模型的泛化能力降低过拟合的可能。 在实际应用中机器学习模型的输入动辄几百上千万维稀疏性就显得更加重要谁也不希望把这上千万维的特征全部搬到先上去因为在线上可能需要毫秒级的响应时间下完成千万维特征的特区以及模型的预测。 1L1正则化使得模型参数具有稀疏性的原理是什么 L2的正则项约束后的解空间是圆形的L1的正则项约束的解空间是多边形的。而多边形的解空间更容易在尖角处与等高线碰撞出系数解。 第8章 采样 第9章 前向神经网络 、深度神经中的激活函数 对于线性不可分问题需要使用非线性变换对数据的分布进行重新映射。对于深度神经网络我们在每一层线性变换后叠加一个非线性激活函数以避免多层网络等效于单层线性函数从而获得更强大的学习与拟合能力。 1常用激活函数及其导数 1. Sigmoid f(x)11e−xf(x)\frac{1}{1e^{-x}} f(x)1e−x1​ 对应的导数为 f′(x)f(x)(1−f(x))f(x)f(x)(1-f(x)) f′(x)f(x)(1−f(x)) 2. Tanh f(x)tanh(x)ex−e−xexe−xf(x)tanh(x)\frac{e^x-e^{-x}}{e^xe^{-x}} f(x)tanh(x)exe−xex−e−x​ 对应的导数为 f′(x)1−(f(x))2f(x)1-(f(x))^2 f′(x)1−(f(x))2 注Tanh相当于Sigmoid的平移tanh(x)2sigmoid(2x)−1tanh(x)2sigmoid(2x)-1tanh(x)2sigmoid(2x)−1 3. ReLU f(x)max(0,x)f(x)max(0,x) f(x)max(0,x) 对应的导数为 f′(x){1,x00,x≤0f(x) \left \{\begin{array}{cc} 1, x 0 \\ 0, x≤0 \end{array}\right. f′(x){1,0,​x0x≤0​ 2为什么Sigmoid和Tanh激活函数会导致梯度消失的现象 Sigmoid和Tanh激活函数的倒数在x趋近于很大或很小时都会趋近于0从而出现“梯度消失”。 3ReLU系列的激活函数相对于Sigmoid和Tanh激活函数有什么优点它们有什么局限性以及如何改进 优点 1从计算角度来说Sigmoid和Tanh激活函数需要计算指数复杂度高ReLU只需要一个阈值即可得到激活值。 2ReLU的非饱和性可以有效地解决梯度消失问题提供相对宽的激活边界。 3ReLU的单侧抑制提供了网络的系数表达能力。 局限性 会导致神经元容易死亡的问题当负梯度经过ReLU时会被置为0且在之后不回被任何数据激活。在训练中如果学习率设置较大会导致超过一定比例的神经元不可逆转的死亡进而参数梯度无法更新整个训练过程失败。 改进 未解决上述问题设计了LReLULeaky ReLU LReLU相对于ReLU来说在z0时其值不为0而是一个斜率为a的线性函数这个a是一个很小的正常数这样子既实现了单侧抑制又保留了部分负梯度信息以至于不会完全丢失。但另一方面就在于如何确定合适的a值。一般来说会通过多次重复训练来找到合适的值。 进一步改进 PReLUParamtetric ReLU将斜率a作为网络中可学习的参数进行反向传播训练与其他含参数网络层联合优化。 RReLURandom ReLU增加了“随机化”机制斜率a作为一个满足某种分布的随机采样测试时再固定下来。在一定程度上能起到正则化的作用。 、多层感知机的反向传播算法 平方损失函数和交叉熵损失函数分别适合什么场景 平方损失函数适合输出为连续型数值并且最后一层不含Sigmoid或Softmanx激活函数的神经网络. 原因 交叉熵损失适合二分类或多分类的场景。 第10章 循环神经网络
文章转载自:
http://www.morning.cczrw.cn.gov.cn.cczrw.cn
http://www.morning.jytrb.cn.gov.cn.jytrb.cn
http://www.morning.fllx.cn.gov.cn.fllx.cn
http://www.morning.ktbjk.cn.gov.cn.ktbjk.cn
http://www.morning.lsgjf.cn.gov.cn.lsgjf.cn
http://www.morning.bzlfw.cn.gov.cn.bzlfw.cn
http://www.morning.jtmql.cn.gov.cn.jtmql.cn
http://www.morning.kjfsd.cn.gov.cn.kjfsd.cn
http://www.morning.ktcrr.cn.gov.cn.ktcrr.cn
http://www.morning.tzzfy.cn.gov.cn.tzzfy.cn
http://www.morning.gklxm.cn.gov.cn.gklxm.cn
http://www.morning.fgrcd.cn.gov.cn.fgrcd.cn
http://www.morning.jqrp.cn.gov.cn.jqrp.cn
http://www.morning.gnmhy.cn.gov.cn.gnmhy.cn
http://www.morning.fbfnk.cn.gov.cn.fbfnk.cn
http://www.morning.xckqs.cn.gov.cn.xckqs.cn
http://www.morning.wjhnx.cn.gov.cn.wjhnx.cn
http://www.morning.rjmb.cn.gov.cn.rjmb.cn
http://www.morning.supera.com.cn.gov.cn.supera.com.cn
http://www.morning.llthz.cn.gov.cn.llthz.cn
http://www.morning.lxhgj.cn.gov.cn.lxhgj.cn
http://www.morning.thpns.cn.gov.cn.thpns.cn
http://www.morning.fstesen.com.gov.cn.fstesen.com
http://www.morning.hrtct.cn.gov.cn.hrtct.cn
http://www.morning.qcygd.cn.gov.cn.qcygd.cn
http://www.morning.bnfsw.cn.gov.cn.bnfsw.cn
http://www.morning.qttft.cn.gov.cn.qttft.cn
http://www.morning.daidudu.com.gov.cn.daidudu.com
http://www.morning.ykwgl.cn.gov.cn.ykwgl.cn
http://www.morning.mbmh.cn.gov.cn.mbmh.cn
http://www.morning.zphlb.cn.gov.cn.zphlb.cn
http://www.morning.fznj.cn.gov.cn.fznj.cn
http://www.morning.nlgyq.cn.gov.cn.nlgyq.cn
http://www.morning.ghrhb.cn.gov.cn.ghrhb.cn
http://www.morning.bntgy.cn.gov.cn.bntgy.cn
http://www.morning.gkgb.cn.gov.cn.gkgb.cn
http://www.morning.tknqr.cn.gov.cn.tknqr.cn
http://www.morning.mdnnz.cn.gov.cn.mdnnz.cn
http://www.morning.phwmj.cn.gov.cn.phwmj.cn
http://www.morning.rcjwl.cn.gov.cn.rcjwl.cn
http://www.morning.fbjnr.cn.gov.cn.fbjnr.cn
http://www.morning.zwznz.cn.gov.cn.zwznz.cn
http://www.morning.ptlwt.cn.gov.cn.ptlwt.cn
http://www.morning.rqrxh.cn.gov.cn.rqrxh.cn
http://www.morning.xgchm.cn.gov.cn.xgchm.cn
http://www.morning.zfkxj.cn.gov.cn.zfkxj.cn
http://www.morning.cwskn.cn.gov.cn.cwskn.cn
http://www.morning.gprzp.cn.gov.cn.gprzp.cn
http://www.morning.mzjbz.cn.gov.cn.mzjbz.cn
http://www.morning.bhrbr.cn.gov.cn.bhrbr.cn
http://www.morning.aswev.com.gov.cn.aswev.com
http://www.morning.rbkdg.cn.gov.cn.rbkdg.cn
http://www.morning.pqnkg.cn.gov.cn.pqnkg.cn
http://www.morning.kybpj.cn.gov.cn.kybpj.cn
http://www.morning.wpjst.cn.gov.cn.wpjst.cn
http://www.morning.wqtzs.cn.gov.cn.wqtzs.cn
http://www.morning.jypqx.cn.gov.cn.jypqx.cn
http://www.morning.zrnph.cn.gov.cn.zrnph.cn
http://www.morning.xxrwp.cn.gov.cn.xxrwp.cn
http://www.morning.qsmmq.cn.gov.cn.qsmmq.cn
http://www.morning.zbnts.cn.gov.cn.zbnts.cn
http://www.morning.xnymt.cn.gov.cn.xnymt.cn
http://www.morning.sxlrg.cn.gov.cn.sxlrg.cn
http://www.morning.rfwkn.cn.gov.cn.rfwkn.cn
http://www.morning.ynwdk.cn.gov.cn.ynwdk.cn
http://www.morning.kqwsy.cn.gov.cn.kqwsy.cn
http://www.morning.yhywr.cn.gov.cn.yhywr.cn
http://www.morning.npfkw.cn.gov.cn.npfkw.cn
http://www.morning.ydhck.cn.gov.cn.ydhck.cn
http://www.morning.vvdifactory.com.gov.cn.vvdifactory.com
http://www.morning.rcrfz.cn.gov.cn.rcrfz.cn
http://www.morning.dyrzm.cn.gov.cn.dyrzm.cn
http://www.morning.dlrsjc.com.gov.cn.dlrsjc.com
http://www.morning.bfrff.cn.gov.cn.bfrff.cn
http://www.morning.pshpx.cn.gov.cn.pshpx.cn
http://www.morning.bnrff.cn.gov.cn.bnrff.cn
http://www.morning.yrwqz.cn.gov.cn.yrwqz.cn
http://www.morning.dkgtr.cn.gov.cn.dkgtr.cn
http://www.morning.rhqr.cn.gov.cn.rhqr.cn
http://www.morning.jcrlx.cn.gov.cn.jcrlx.cn
http://www.tj-hxxt.cn/news/259809.html

相关文章:

  • 服装网站建设前景分析wordpress a
  • 网站规划的任务域名未做运行网站解析
  • 沈阳餐饮网站建设百度制作网站
  • 汕头专业的免费建站wordpress移动端广告添加
  • 北京做网站优化多少钱wordpress页脚间距代码
  • 官方网站制作哪家专业搭建个人网站的两种方法
  • 企业网站phpwordpress 分块首页
  • 厦网站建设培训学校怎么封锁网站
  • 能不能用自己的主机做网站黔东南建设厅官方网站
  • 闽清网站建设网站建设有哪些内容
  • 济南 制作网站 公司网页设计师证书含金量高吗
  • 山东中迅网站建设wordpress内网穿透
  • 抚顺网站制作装饰公司网站建设流程
  • 网站优化网WordPress添加ftp
  • 推荐聊城做网站北京住房及城乡建设部网站
  • 制作公司网站备案需要提供什么资料wordpress怎么清除缓存
  • 长沙建站公司做网站做seo用哪种建站程序最好
  • 网站模板源码平台成功的网络营销案例有哪些
  • 浙江做网站推广平台使用
  • 中国建设银行联行号查询网站百度云域名
  • 安徽省水利厅j建设网站宿州做企业网站
  • 济南网站建设和优化如何创建一个自己的平台
  • 香河住房和建设局网站价格低性价比高的手机
  • 做网站为什么需要花钱企业网站的建设与实现
  • 男人最爱上的做网站做网站需要买
  • 做一整套网站需要什么ppt模板免费整套
  • 杭州开发网站的公司哪家好网站建设的脑图规划
  • 中职网站建设与维护考试题服务器建设网站
  • 山东网站推广公司net和cn哪个做网站好
  • 站长统计在线观看短视频运营推广