当前位置: 首页 > news >正文

如何制作wordpress网站地图网站做seo教程

如何制作wordpress网站地图,网站做seo教程,诸城 建设外贸网站,化工建设网站代码已上传GitHub:plumqm/OpenCV-Projects at master EigenFace、FisherFace、LBPHFace 这三种方法的代码区别不大所以就一段代码示例。 EigenFace与FisherFace 1. 将人脸图像展开为一维向量,组成训练数据集 2. PCA(EigenFace)或…

代码已上传GitHub:plumqm/OpenCV-Projects at master

EigenFace、FisherFace、LBPHFace

这三种方法的代码区别不大所以就一段代码示例。

EigenFace与FisherFace

1. 将人脸图像展开为一维向量,组成训练数据集

2. PCA(EigenFace)或LDA(FisherFace)特征分解,得到一组特征向量,代表了训练集中人脸的主要特征,即特征脸

3. 将新的人脸展平为向量,减去训练数据的特征脸(即归一化)

4. 人脸向量与特征向量进行点积,得到在特征空间中的投影坐标

5. 投影得到的新坐标向量与数据库中已存的人脸投影坐标进行比较。通过计算距离(如欧氏距离),找到最相似的匹配,进行身份识别。

EigenFace和FisherFace的主要区别在于它们使用的特征分解方法不同:

        FisherFace对光照、表情、姿态变化更具鲁棒性,因为它专注于区分类别,而不是仅仅关注图像的整体方差。

        PCA只是从全局数据出发,而没有考虑类别之间的区分。这意味着,它虽然对所有人脸都有较好的重建能力,但可能对区分不同个体的表现较差,特别是当光照或姿态变化较大时。

  • EigenFace(PCA)注重最大化数据的方差,它主要捕捉的是图像中的全局特征,不区分类别。
  • FisherFace(LDA)则注重区分不同个体,最大化类间差异,因此在分类问题中通常表现得更好。

LBPH工作原理

LBPH算法通过将人脸图像分成多个小的局部区域,并计算每个区域的局部二值模式(Local Binary Patterns, LBP)直方图来描述这些区域的纹理特征。然后,它将这些局部直方图串联起来形成一个特征向量,这个特征向量就可以用来识别或分类人脸。

具体步骤:

  1. 灰度图转换

    • 首先,LBPH算法需要输入一张灰度图像。因为LBPH主要基于像素的纹理特征,所以不需要彩色信息,直接将人脸图像转换为灰度图即可。
  2. 计算局部二值模式(LBP)

    • 对于每个像素点,LBP算法将以它为中心,比较它与周围8个像素的灰度值。根据灰度值的大小,将大于或等于中心像素的邻近像素标记为1,反之为0,得到一个8位二进制数。这个二进制数就是该像素的局部二值模式值。
    • 例如,假设中心像素值为 50,周围的像素值为 [55, 60, 45, 30, 70, 40, 80, 90],根据规则将大于50的像素标记为1,小于的标记为0,得到的二进制模式可能是11010101,转换为十进制就是213。
  3. 划分区域

    • 将人脸图像分成若干个小的区域(通常是网格状,如10x10的网格),然后对每个区域计算该区域内所有像素的LBP直方图。
  4. 构建特征向量

    • 对于每个区域,LBPH都会计算局部二值模式的直方图,这些直方图包含了该区域内纹理的统计信息。然后,将所有区域的直方图连接起来,形成一个完整的特征向量。
  5. 特征匹配

    • 一旦提取了人脸的特征向量,就可以使用距离度量方法(如欧氏距离、卡方距离等)来比较新的人脸图像与数据库中已知的人脸特征向量。如果两个特征向量的距离足够小,则判定这两张人脸是同一个人。

准备阶段

导入包

import numpy as np
import cv2
import matplotlib.pyplot as plt
import dlib%matplotlib inline

读取gif格式

读取gif格式的文件,通过调用cv2的VideoCapture方法

# 读取gif格式img_path = './images/yalefaces/subject01.gif'
cap = cv2.VideoCapture(img_path)
ret,img = cap.read()
plt.imshow(cv2.cvtColor(img,cv2.COLOR_BGR2RGB))

Hog人脸检测器

#构造hog人脸检测器
hog_face_detector = dlib.get_frontal_face_detector()

图片预处理

用hog检测器检测出人脸部分,返回截取的人脸部分和标签

# 图片预处理
def getFaceImgLabel(filename):cap = cv2.VideoCapture(filename)ret,img = cap.read()# 转灰度图img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)# 检测人脸detections = hog_face_detector(img, 1)if len(detections) > 0:# 获取人脸区域坐标x = detections[0].left()y = detections[0].top()r = detections[0].right()b = detections[0].bottom()# 截取人脸img_crop = img[y:b,x:r]img_crop = cv2.resize(img_crop,(120,120))# 获取人脸labellabel_id = int(filename.split('/')[-1].split('.')[0].split('subject')[-1])return img_crop, label_idelse :return None, -1# img,label = getFaceImgLabel(img_path)
# plt.imshow(cv2.cvtColor(img,cv2.COLOR_BGR2RGB))

处理训练集

把训练集即train文件夹下的内容存入img_list,标签存入label_list,以便后面train函数直接训练


# 遍历训练文件夹
import glob
file_list = glob.glob('./images/yalefaces/*.gif')img_list =[]
label_list = []for file in file_list:img_crop, label_id = getFaceImgLabel(file)if img_crop is not None:img_list.append(img_crop)label_list.append(label_id)# print(len(img_list),len(label_list))

构造分类器

这个就包含三种方法,EigenFace、FisherFace、LBPHFace。

后面两种方法要求输入的图片大小一致,但是第一种没有要求,我们的代码就统一resize了。

# 构造分类器
face_cls = cv2.face.LBPHFaceRecognizer_create()
# cv2.face.EigenFaceRecognizer_create()
# cv2.face.FisherFaceRecognizer_create()# 后面两个方法要求人脸大小一致

训练

# 训练
face_cls.train(img_list, np.array(label_list))

试验图片 

# 预测图片
test_file = './images/test/subject06.sad.gif'img_crop, label_id = getFaceImgLabel(test_file)plt.imshow(cv2.cvtColor(img_crop,cv2.COLOR_BGR2RGB))  # 显示图片
# plt.imshow(img_crop)    
if img_crop is not None:predict_id,distance = face_cls.predict(img_crop)print(predict_id)

评估模型

其实也就是在试验单张图片的基础上通过大量测试集来评估模型好坏。

# 评估模型import glob
file_list = glob.glob('./images/test/*.gif')true_list = []
predict_list = []for file in file_list:img_crop, label_id = getFaceImgLabel(file)if img_crop is not None:predict_id,distance = face_cls.predict(img_crop)predict_list.append(predict_id)true_list.append(label_id)print(predict_list)
print(true_list)

查看准确率

# 查看准确率
from sklearn.metrics import accuracy_score 
accuracy_score(true_list,predict_list)

结果可视化

# 获取融合矩阵
from sklearn.metrics import confusion_matrix 
cm = confusion_matrix(true_list,predict_list)
cm# 可视化
import seaborn
seaborn.heatmap(cm,annot=True)

热力图:

(因为我没找到好的测试集,test文件夹就直接放的训练集的图片,所以结果怪怪的)

保存模型

# 保存模型
path = './weights/LBPG.yml'
face_cls.save(path)# 调用模型
new_cls = cv2.face.LBPHFaceRecognizer_create()
new_cls.read(path)# 预测一张图片
test_file = './images/test/subject06.sad.gif'img_crop, label_id = getFaceImgLabel(test_file)# plt.imshow(cv2.cvtColor(img_crop,cv2.COLOR_BGR2RGB))  # 显示图片
# plt.imshow(img_crop)    
if img_crop is not None:predict_id,distance = new_cls.predict(img_crop)print(predict_id)

Residual Network

导入包

import numpy as np
import cv2
import matplotlib.pyplot as plt
import dlib# %matplotlib inline
plt.rcParams['figure.dpi'] = 200

提取关键点

# 获取人脸68个关键点
hog_face_detector = dlib.get_frontal_face_detector()
# 关键点检测模型
shape_detector = dlib.shape_predictor('./weights/shape_predictor_68_face_landmarks.dat')
# 读取1张测试图片
img = cv2.imread('./images/others/Walid_Al-Awadi/Walid_Al-Awadi_0001.jpg')
# plt.imshow(img)
# 检测人脸
detections = hog_face_detector(img,1)for face in detections:l,t,r,b = face.left(),face.top(),face.right(),face.bottom()# 获取68个关键点points = shape_detector(img,face)# 绘制关键点for point in points.parts():cv2.circle(img,(point.x,point.y),2,(0,255,0),1)# 绘制矩形框cv2.rectangle(img,(l,t),(r,b),(255,0,0),2)plt.imshow(cv2.cvtColor(img,cv2.COLOR_BGR2RGB))

导入Resent模型

# resent模型
face_descriptor_extractor = dlib.face_recognition_model_v1('./weights/dlib_face_recognition_resnet_model_v1.dat')

提取单张图片的特征描述符和label

通过face_descriptor_extractor.compute_face_descriptor计算特征描述符

# 提取单张图片的特征描述符label
def getFaceFeatLabel(filename):label_id = int(filename.split('/')[-1].split('.')[0].split('subject')[-1])# 读取图片cap = cv2.VideoCapture(filename)ret,img = cap.read()img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)# 检测人脸detections = hog_face_detector(img, 1)face_decriptor = Nonefor face in detections:# 获取关键点points = shape_detector(img,face)# 获取特征描述符face_decriptor = face_descriptor_extractor.compute_face_descriptor(img,points)# 转为numpy格式数组face_decriptor = [f for f in face_decriptor]face_decriptor = np.asarray(face_decriptor,dtype=np.float64)face_decriptor = np.reshape(face_decriptor,(1,-1))return label_id,face_decriptor
# img,label = getFaceImgLabel(img_path)
# plt.imshow(cv2.cvtColor(img,cv2.COLOR_BGR2RGB))id1,fd1 = getFaceFeatLabel('./images/test/subject06.sad.gif')
fd1.shape

训练

# 遍历训练文件夹
import glob
file_list = glob.glob('./images/yalefaces/*.gif')
file_list = [file.replace('\\', '/') for file in file_list]label_list = []
feature_list = Nonename_list = {}
index = 0
for file in file_list:label, feature = getFaceFeatLabel(file)if feature is not None:# 文件名列表name_list[index] = file# label列表label_list.append(label)index += 1if feature_list is None:feature_list = featureelse:    # 特征列表feature_list = np.concatenate((feature_list ,feature),axis=0)# feature_list = np.concatenate((feature_list, feature.reshape(1, -1)), axis=0)# print(len(img_list),len(label_list))
print(name_list)

评估模型

距离的计算

# 计算距离
np.linalg.norm((feature_list[20]-feature_list[100]))# 计算某个特征描述符与所有特征描述符的距离
np.linalg.norm((feature_list[100]-feature_list),axis=1)# 寻找最小值索引min_index = np.argmin(np.linalg.norm((feature_list[0]-feature_list[1:]),axis=1))
min_index

模型评估

# 评估模型import glob
file_list = glob.glob('./images/test/*.gif')
file_list = [file.replace('\\', '/') for file in file_list]label_list = []
predict_list = []# 距离阈值
threshold = 0.5for file in file_list:label, feat = getFaceFeatLabel(file)cap = cv2.VideoCapture(file)ret,img = cap.read()img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)if feat is not None:# 计算距离distances = np.linalg.norm((feat-feature_list),axis=1)# 找最短距离min_index = np.argmin(distances)min_distance = distances[min_index]if min_distance < threshold:# 同一个人predict_id = int(name_list[min_index].split('/')[-1].split('.')[0].split('subject')[-1])else:predict_id = -1predict_list.append(predict_id)label_list.append(label)cv2.putText(img,'True:'+str(label),(10,30),cv2.FONT_HERSHEY_COMPLEX_SMALL,1,(0,255,0))cv2.putText(img,'Pred:'+str(predict_id),(10,50),cv2.FONT_HERSHEY_COMPLEX_SMALL,1,(0,255,0))cv2.putText(img,'Dist:'+str(min_distance),(10,70),cv2.FONT_HERSHEY_COMPLEX_SMALL,1,(0,255,0))plt.figure()plt.imshow(img)print(len(label_list))
print(len(predict_list))

准确率

# 公式评估
from sklearn.metrics import accuracy_score
accuracy_score(label_list,predict_list)

http://www.tj-hxxt.cn/news/79386.html

相关文章:

  • wordpress门户合肥seo优化排名公司
  • php禁止ip访问网站盐城seo推广
  • 域名备案后怎样做网站seo优化包括什么
  • 微信小程序网站建设全自动引流推广软件免费
  • 杭州做企业网站的公司优化搜索曝光次数的方法
  • 心悦免做卡领取网站大数据精准营销获客
  • 怎样做网站管理与维护关键词优化推广策略
  • 房产投资还有前景吗seo查询是什么意思
  • 做网站哪家好哪家好怎么做自媒体
  • 明天汽油价格调整多少搜索关键词排名优化服务
  • 网站符号河南怎样做网站推广
  • 怎样监测熊掌号绑定成功网站百度网盘会员
  • 珠海做网站找哪家好武汉网优化seo公司
  • 镇江市丹阳市疫情志鸿优化设计电子版
  • 网站规划与建设心得体会解析域名网站
  • 1网站建设公司建网站哪个平台好
  • 广州电商网站开发seo优化总结
  • 网站建设网站营销网站托管一体化企业营销策划论文
  • 做公司网站排名广州营销课程培训班
  • 做公司网站需要准备什么西安seo站内优化
  • 万网备案域名购买windows10优化工具
  • 有谁帮做网站网站设计费用明细
  • 别人做的网站如何要回服务器短视频seo排名
  • 我想创业做网站seo技术教程博客
  • 如何做网站咨询宁波谷歌seo推广
  • 广州社交软件app开发seo云优化平台
  • 用网站做CAN总线通信好吗网站推广经验
  • 深圳地址大全网络优化基础知识
  • 网站制作过程合理的步骤是网络营销职业规划300字
  • 网站建设日程表流感用什么药最好