当前位置: 首页 > news >正文

响水做网站价格旅行社销售网站建设方案

响水做网站价格,旅行社销售网站建设方案,临沂建设网站公司,网站定制文章列表项怎么做kube-proxy 是 Kubernetes 集群中负责服务发现和负载均衡的组件之一。它是一个网络代理#xff0c;运行在每个节点上, 用于 service 资源的负载均衡。它有两种模式#xff1a;iptables 和 ipvs。 iptables iptables 是 Linux 系统中的一个用户空间实用程序#xff0c;用于…kube-proxy 是 Kubernetes 集群中负责服务发现和负载均衡的组件之一。它是一个网络代理运行在每个节点上, 用于 service 资源的负载均衡。它有两种模式iptables 和 ipvs。 iptables iptables 是 Linux 系统中的一个用户空间实用程序用于配置内核的网络包过滤和网络地址转换NAT规则。它是 Linux 内核中的 netfilter 框架的一部分并负责在网络包进入、转发或离开计算机时进行筛选和处理。其主要功能和用途包括 防火墙iptables 提供了强大的防火墙功能可以根据不同的规则来过滤和拒绝不需要的网络包。管理员可以创建自定义的规则集允许或拒绝从特定 IP 地址、端口或协议的数据包。 NAT网络地址转换iptables 支持 NAT 功能可以用来将私有网络中的计算机与外部网络连接。例如它可以在一个 NAT 路由器上将内部网络的多个设备映射到单个外部 IP 地址。 端口转发iptables 可以将特定的端口流量从一个网络接口转发到另一个接口或目标 IP 地址通常用于内部网络的服务公开。 负载均衡它也可以通过 DNAT目标网络地址转换功能将流量转发给多个内部服务器实现简单的负载均衡。 iptables 是通过链chains和表tables来组织规则的。每个链由一组规则组成当网络数据包经过时这些规则会逐一执行。常用的表包括 filter 表用于包过滤是最常用的表。 nat 表用于网络地址转换。 mangle 表用于修改数据包的 IP 层字段。 raw 表用于绕过连接跟踪。 链的流向为 所以根据上图我们能够想象出某些常用场景中报文的流向 到本机某进程的报文PREROUTING – INPUT 由本机转发的报文PREROUTING – FORWARD – POSTROUTING 由本机的某进程发出报文通常为响应报文OUTPUT – POSTROUTING 尽管在某些情况下配置 iptables 规则可能复杂但它提供了高度的灵活性和强大的功能使其成为 Linux 网络安全的重要组成部分。 service 负载均衡 我启动了一个 3 个 nginx pod和一个对应的 serviceservice 的类型是 ClusterIP这样 service 就会有一个虚拟 IP这个 IP 会被 kube-proxy 代理到后端的 pod 上。 ~ » k get pod -owide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES nginx-deployment-59f546cb79-2k9ng 1/1 Running 2 (31m ago) 50m 10.244.0.28 minikube none none nginx-deployment-59f546cb79-wfw84 1/1 Running 2 (31m ago) 50m 10.244.0.30 minikube none none nginx-deployment-59f546cb79-zr9xm 1/1 Running 2 (31m ago) 50m 10.244.0.27 minikube none none ----------------------------------------------------------------------------------------- ~ » k get svc nginx-service NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE nginx-service ClusterIP 10.101.57.97 none 80/TCP 29m 当我们在 master 使用 curl 10.101.57.97 访问 service 的时候首先会进入 PREROUTING 链 rootminikube:/# iptables-save |grep PREROUTING :PREROUTING ACCEPT [0:0] :PREROUTING ACCEPT [34:2040] -A PREROUTING -m comment --comment kubernetes service portals -j KUBE-SERVICES -A PREROUTING -d 192.168.49.1/32 -j DOCKER_OUTPUT -A PREROUTING -m addrtype --dst-type LOCAL -j DOCKER 首先会尝试匹配 KUBE-SERVICES 链这个链是 kube-proxy 生成的用于处理 service 的请求。后两个是 docker 的链用于处理 docker 的请求。 rootminikube:/# iptables-save |grep \-A KUBE-SERVICES -A KUBE-SERVICES -d 10.96.0.1/32 -p tcp -m comment --comment default/kubernetes:https cluster IP -j KUBE-SVC-NPX46M4PTMTKRN6Y -A KUBE-SERVICES -d 10.101.57.97/32 -p tcp -m comment --comment default/nginx-service cluster IP -j KUBE-SVC-V2OKYYMBY3REGZOG -A KUBE-SERVICES -d 10.96.0.10/32 -p udp -m comment --comment kube-system/kube-dns:dns cluster IP -j KUBE-SVC-TCOU7JCQXEZGVUNU -A KUBE-SERVICES -d 10.96.0.10/32 -p tcp -m comment --comment kube-system/kube-dns:dns-tcp cluster IP -j KUBE-SVC-ERIFXISQEP7F7OF4 -A KUBE-SERVICES -d 10.96.0.10/32 -p tcp -m comment --comment kube-system/kube-dns:metrics cluster IP -j KUBE-SVC-JD5MR3NA4I4DYORP -A KUBE-SERVICES -m comment --comment kubernetes service nodeports; NOTE: this must be the last rule in this chain -m addrtype --dst-type LOCAL -j KUBE-NODEPORTS我们这个 nginx-service 的 cluster IP 是 10.101.57.97, 所以会走 KUBE-SVC-V2OKYYMBY3REGZOG 链 rootminikube:/# iptables-save |grep \-A KUBE-SVC-V2OKYYMBY3REGZOG -A KUBE-SVC-V2OKYYMBY3REGZOG ! -s 10.244.0.0/16 -d 10.101.57.97/32 -p tcp -m comment --comment default/nginx-service cluster IP -j KUBE-MARK-MASQ -A KUBE-SVC-V2OKYYMBY3REGZOG -m comment --comment default/nginx-service - 10.244.0.27:80 -m statistic --mode random --probability 0.33333333349 -j KUBE-SEP-POZMZY2HDLRATSJV -A KUBE-SVC-V2OKYYMBY3REGZOG -m comment --comment default/nginx-service - 10.244.0.28:80 -m statistic --mode random --probability 0.50000000000 -j KUBE-SEP-Z3HXRORN5VDCFRJU -A KUBE-SVC-V2OKYYMBY3REGZOG -m comment --comment default/nginx-service - 10.244.0.30:80 -j KUBE-SEP-S46ZL6MIFVWDY42O-A KUBE-SVC-V2OKYYMBY3REGZOG ! -s 10.244.0.0/16 -d 10.101.57.97/32 -p tcp -m comment --comment default/nginx-service cluster IP -j KUBE-MARK-MASQ 这条规则的如果源ip 不是 10.244.0.0/16 的 ip也就是不是 pod发出来的请求目的ip 是 service ipjump 跳转到 这个链 KUBE-MARK-MASQ rootminikube:/# iptables-save |grep \-A KUBE-MARK-MASQ -A KUBE-MARK-MASQ -j MARK --set-xmark 0x4000/0x4000 这条规则的作用是给数据包打上 0x4000 这个标记。这个标记会被后续的 NAT 规则识别到从而让这些数据包通过特定的 NAT 规则进行 IP 地址转换。 接下来看主要的三条规则 -A KUBE-SVC-V2OKYYMBY3REGZOG -m comment --comment default/nginx-service - 10.244.0.27:80 -m statistic --mode random --probability 0.33333333349 -j KUBE-SEP-POZMZY2HDLRATSJV -A KUBE-SVC-V2OKYYMBY3REGZOG -m comment --comment default/nginx-service - 10.244.0.28:80 -m statistic --mode random --probability 0.50000000000 -j KUBE-SEP-Z3HXRORN5VDCFRJU -A KUBE-SVC-V2OKYYMBY3REGZOG -m comment --comment default/nginx-service - 10.244.0.30:80 -j KUBE-SEP-S46ZL6MIFVWDY42O第一条是说有 33.33% 的几率会被转发到 KUBE-SEP-POZMZY2HDLRATSJV, 第二条是 50% 的几率会被转发到 KUBE-SEP-Z3HXRORN5VDCFRJU, 第三条是一定会被转发到 KUBE-SEP-S46ZL6MIFVWDY42O。 转到第一条的概率是 33.33%转到第二条的概率是 66.67%没有到第一条的概率 * 50% 33.33%第三条就是 66.67%没有到第一条的概率 * 50%没有到第二条的概率 33.33%。所以这三条规则的概率是一样的。都是 33.33%。 那么 KUBE-SEP-POZMZY2HDLRATSJV 又是什么呢 rootminikube:/# iptables-save |grep \-A KUBE-SEP-POZMZY2HDLRATSJV -A KUBE-SEP-POZMZY2HDLRATSJV -s 10.244.0.27/32 -m comment --comment default/nginx-service -j KUBE-MARK-MASQ -A KUBE-SEP-POZMZY2HDLRATSJV -p tcp -m comment --comment default/nginx-service -m tcp -j DNAT --to-destination 10.244.0.27:80rootminikube:/# iptables-save |grep \-A KUBE-SEP-POZMZY2HDLRATSJV -A KUBE-SEP-Z3HXRORN5VDCFRJU -s 10.244.0.28/32 -m comment --comment default/nginx-service -j KUBE-MARK-MASQ -A KUBE-SEP-Z3HXRORN5VDCFRJU -p tcp -m comment --comment default/nginx-service -m tcp -j DNAT --to-destination 10.244.0.28:80rootminikube:/# iptables-save |grep \-A KUBE-SEP-S46ZL6MIFVWDY42O -A KUBE-SEP-S46ZL6MIFVWDY42O -s 10.244.0.30/32 -m comment --comment default/nginx-service -j KUBE-MARK-MASQ -A KUBE-SEP-S46ZL6MIFVWDY42O -p tcp -m comment --comment default/nginx-service -m tcp -j DNAT --to-destination 10.244.0.30:80第一条规则确保流量从 10.244.0.20 发出时被打上 MASQUERADE 标记以便通过 NAT 机制进行 IP 伪装。 第二条是将流量转发到 10.244.0.20:80 并使用 DNAT 机制进行目标地址转换, 转换的 ip 10.244.0.27:80 就是 pod 的 ip 和端口。KUBE-SEP-Z3HXRORN5VDCFRJU 和 KUBE-SEP-S46ZL6MIFVWDY42O 的规则和这条同理。 ipvs IPVSIP Virtual Server是 Linux 内核中实现负载均衡功能的模块。是一种高效的负载均衡技术可以在第 4 层传输层进行流量转发和调度。IPVS 通常被用于构建高性能、高可用性的负载均衡集群。 查看 ipvs 的规则 rootminikube:/etc/apt# sudo ipvsadm -Ln|grep -A 4 10.101.57.97 Prot LocalAddress:Port Scheduler Flags - RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 10.101.57.97:80 rr - 10.244.0.27:80 Masq 1 0 0 - 10.244.0.28:80 Masq 1 0 0 - 10.244.0.30:80 Masq 1 0 0 UDP 10.96.0.10:53 rr 这个的意思是到10.101.57.97:80 的 tcp 浏览会使用 rr轮询的方式转发到 10.244.0.27:8010.244.0.28:8010.244.0.30:80 这三个 pod 上。Masq指示 Masquerading表示通过 NAT 来处理网络流量。 所以 ipvs 的模式比 iptables 性能高的多第一因为 ipvs 是轮询选iptables 是逐条百分比匹配的这个还是可以接受的。更要命的是第二条当 pod 频繁变更的时候 service 对应的 endpoint 的 ENDPOINTS 就会增加或者是减少。那么 iptables 对应 service 的所有规则的百分比都会变化就会导致一个 service 的规则全部要重刷当 pod 变化太频繁时会吃掉大量的 CPU。 不是说开启了 ipvs 就不会有 iptables 了还需要 iptables 的 SNAT 规则来处理返回的数据包。 -A POSTROUTING -m comment --comment kubernetes postrouting rules -j KUBE-POSTROUTING -A KUBE-POSTROUTING -m comment --comment Kubernetes endpoints dst ip:port, source ip for solving hairpin purpose -m set --match-set KUBE-LOOP-BACK dst,dst,src -j MASQUERADE-m set --match-set KUBE-LOOP-BACK dst,dst,src 的意思是匹配 KUBE-LOOP-BACK 这个 set这个 set 里面存放的是 pod 的 ip这个规则的作用是将数据包的源地址替换为本机的地址以便数据包能够正确返回到客户端。 为什么是 pod ip 而不是 service cluster ip 呢因为已经通过 ipvs DNAT 过了所以这里是 pod ip。 rootminikube:/etc/apt# ipset -L|grep -A 15 KUBE-LOOP-BACK Name: KUBE-LOOP-BACK Type: hash:ip,port,ip Revision: 6 Header: family inet hashsize 1024 maxelem 65536 bucketsize 12 initval 0xe4e21451 Size in memory: 544 References: 1 Number of entries: 6 Members: 10.244.0.28,tcp:80,10.244.0.28 10.244.0.30,tcp:80,10.244.0.30 10.244.0.29,tcp:9153,10.244.0.29 10.244.0.29,tcp:53,10.244.0.29 10.244.0.27,tcp:80,10.244.0.27 10.244.0.29,udp:53,10.244.0.29 很明显我们的三个 pod 都在这个 set 里面。 -A KUBE-POSTROUTING -m comment --comment Kubernetes endpoints dst ip:port, source ip for solving hairpin purpose -m set --match-set KUBE-LOOP-BACK dst,dst,src -j MASQUERADE 这条规则的作用是将数据包的源地址替换为本机的地址以便数据包能够正确返回到客户端。现在我们使用 curl 发出的包目标 ip 是 pod ip了源 ip 是 node ip。等到数据包返回的时候kernel 会根据 链路追踪 中的数据记录会把包的源ip 的pod ip 替换为 serice cluster ip, 目标 ip 从 node ip 替换为我发起请求的 ip。这样包就能正确返回到客户端了。
http://www.tj-hxxt.cn/news/233061.html

相关文章:

  • 网站全站搜索代码营销网页制作
  • 网站建设构架wordpress数据表文档
  • 大企业网站样式建设信用卡银行商城网站
  • 高权重网站代做排名外贸建站哪家公司专业
  • 做一个电商网站多少钱ui设计哪里有培训班
  • 网站的备案手续网站建设所需要的技术
  • 旅游电子商务网站的建设方案泰安seo培训
  • 贵安新区住房和城乡建设厅网站做预约的网站
  • 网站建设 事项有哪些档案网站
  • 淘宝网站建设杭州外贸网站自我建设与优化
  • 广告网站大全品牌网站建设信息
  • 专业视频网站开发公司中国优秀的企业网站
  • 织梦网站后台管理系统建设企业网站收费吗
  • 网站建设设计书任务书wordpress python
  • 织梦网站图片一直转圈公司部门解散员工赔偿
  • 万网网站安装wordpress图片多选
  • 网站举报官网潍坊程序设计网站建设公司
  • 上海网站建设网站制作网站后台管理模板psd
  • 做地推的网站用wordpress制作网页的思路
  • 本地旅游网站模版建立一个网站需要什么技术
  • 自己做的网站如何在百度被搜索到中国建设工程造价信息网站
  • 桃子网站logo做英剧网站的设计思路
  • 行业平台网站开发php 导航网站
  • 科技馆网站建设背景厦门电信网站备案
  • wordpress怎么使用阿里图标南京做网站优化的企业
  • 增加网站广告位创建网页费用
  • 潜力的网站设计制作淘客那些网站怎么做的
  • 网站制作外包是怎么做的南京网站c建设云世家
  • 装修效果图网站如何seo网站挣钱
  • 超凡网络网站东莞网络推广运营平台