当前位置: 首页 > news >正文

网络运营一般工资多少重庆seo收费

网络运营一般工资多少,重庆seo收费,南阳市中小企业融资综合信用服务,软文写作范例大全搭建 EFK 日志系统 前面大家介绍了 Kubernetes 集群中的几种日志收集方案#xff0c;Kubernetes 中比较流行的日志收集解决方案是 Elasticsearch、Fluentd 和 Kibana#xff08;EFK#xff09;技术栈#xff0c;也是官方现在比较推荐的一种方案。 Elasticsearch 是一个实…搭建 EFK 日志系统 前面大家介绍了 Kubernetes 集群中的几种日志收集方案Kubernetes 中比较流行的日志收集解决方案是 Elasticsearch、Fluentd 和 KibanaEFK技术栈也是官方现在比较推荐的一种方案。 Elasticsearch 是一个实时的、分布式的可扩展的搜索引擎允许进行全文、结构化搜索它通常用于索引和搜索大量日志数据也可用于搜索许多不同类型的文档。 Elasticsearch 通常与 Kibana 一起部署Kibana 是 Elasticsearch 的一个功能强大的数据可视化 DashboardKibana 允许你通过 web 界面来浏览 Elasticsearch 日志数据。 Fluentd是一个流行的开源数据收集器我们将在 Kubernetes 集群节点上安装 Fluentd通过获取容器日志文件、过滤和转换日志数据然后将数据传递到 Elasticsearch 集群在该集群中对其进行索引和存储。 我们先来配置启动一个可扩展的 Elasticsearch 集群然后在 Kubernetes 集群中创建一个 Kibana 应用最后通过 DaemonSet 来运行 Fluentd以便它在每个 Kubernetes 工作节点上都可以运行一个 Pod。 安装 Elasticsearch 集群​ 在创建 Elasticsearch 集群之前我们先创建一个命名空间我们将在其中安装所有日志相关的资源对象。 $ kubectl create ns logging环境准备​ ElasticSearch 安装有最低安装要求如果安装后 Pod 无法正常启动请检查是否符合最低要求的配置要求如下 这里我们要安装的 ES 集群环境信息如下所示 这里我们使用一个 NFS 类型的 StorageClass 来做持久化存储当然如果你是线上环境建议使用 Local PV 或者 Ceph RBD 之类的存储来持久化 Elasticsearch 的数据。 此外由于 ElasticSearch 7.x 版本默认安装了 X-Pack 插件并且部分功能免费需要我们配置一些安全证书文件。 1、生成证书文件 # 运行容器生成证书containerd下面用nerdctl $ mkdir -p elastic-certs $ nerdctl run --name elastic-certs -v elastic-certs:/app -it -w /app elasticsearch:7.17.3 /bin/sh -c \elasticsearch-certutil ca --out /app/elastic-stack-ca.p12 --pass \elasticsearch-certutil cert --name security-master --dns \security-master --ca /app/elastic-stack-ca.p12 --pass --ca-pass --out /app/elastic-certificates.p12 # 删除容器 $ nerdctl rm -f elastic-certs # 将 pcks12 中的信息分离出来写入文件 $ cd elastic-certs openssl pkcs12 -nodes -passin pass: -in elastic-certificates.p12 -out elastic-certificate.pem需要注意 nerdctl 如果是 v0.20.0 版本需要更新 CNI 插件版本否则会出现错误 FATA[0000] failed to create shim: OCI runtime create failed: container_linux.go:380: starting container process caused: process_linux.go:545: container init caused: Running hook #0:: error running hook: exit status 1, stdout: , stderr: time2022-06-06T16:37:0308:00 levelfatal msgfailed to call cni.Setup: plugin type\bridge\ failed (add): incompatible CNI versions; config is \1.0.0\, plugin supports [\0.1.0\ \0.2.0\ \0.3.0\ \0.3.1\ \0.4.0\]将 CNI 插件从 https://github.com/containernetworking/plugins/releases/download/v1.1.1/cni-plugins-linux-amd64-v1.1.1.tgz 下载下来覆盖 /opt/cni/bin 目录即可。 2、添加证书到 Kubernetes # 添加证书 $ kubectl create secret -n logging generic elastic-certs --from-fileelastic-certificates.p12 # 设置集群用户名密码 $ kubectl create secret -n logging generic elastic-auth --from-literalusernameelastic --from-literalpasswordydzsio321安装 ES 集群​ 首先添加 ELastic 的 Helm 仓库 $ helm repo add elastic https://helm.elastic.co $ helm repo updateElaticSearch 安装需要安装三次分别安装 Master、Data、Client 节点Master 节点负责集群间的管理工作Data 节点负责存储数据Client 节点负责代理 ElasticSearch Cluster 集群负载均衡。 首先使用 helm pull 拉取 Chart 并解压 $ helm pull elastic/elasticsearch --untar --version 7.17.3 $ cd elasticsearch在 Chart 目录下面创建用于 Master 节点安装配置的 values 文件 # values-master.yaml ## 设置集群名称 clusterName: elasticsearch ## 设置节点名称 nodeGroup: master## 设置角色 roles:master: trueingest: falsedata: false# 镜像配置 ## 指定镜像与镜像版本 image: elasticsearch imageTag: 7.17.3 imagePullPolicy: IfNotPresent## 副本数 replicas: 3# 资源配置 ## JVM 配置参数 esJavaOpts: -Xmx1g -Xms1g ## 部署资源配置(生成环境要设置大些) resources:requests:cpu: 2000mmemory: 2Gilimits:cpu: 2000mmemory: 2Gi ## 数据持久卷配置 persistence:enabled: true ## 存储数据大小配置 volumeClaimTemplate:storageClassName: local-pathaccessModes: [ReadWriteOnce]resources:requests:storage: 5Gi# 安全配置 ## 设置协议可配置为 http、https protocol: http ## 证书挂载配置这里我们挂入上面创建的证书 secretMounts:- name: elastic-certssecretName: elastic-certspath: /usr/share/elasticsearch/config/certsdefaultMode: 0755## 允许您在/usr/share/elasticsearch/config/中添加任何自定义配置文件,例如 elasticsearch.yml、log4j2.properties ## ElasticSearch 7.x 默认安装了 x-pack 插件部分功能免费这里我们配置下 ## 下面注掉的部分为配置 https 证书配置此部分还需要配置 helm 参数 protocol 值改为 https esConfig:elasticsearch.yml: |xpack.security.enabled: truexpack.security.transport.ssl.enabled: truexpack.security.transport.ssl.verification_mode: certificatexpack.security.transport.ssl.keystore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12xpack.security.transport.ssl.truststore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12# xpack.security.http.ssl.enabled: true# xpack.security.http.ssl.truststore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12# xpack.security.http.ssl.keystore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12 ## 环境变量配置这里引入上面设置的用户名、密码 secret 文件 extraEnvs:- name: ELASTIC_USERNAMEvalueFrom:secretKeyRef:name: elastic-authkey: username- name: ELASTIC_PASSWORDvalueFrom:secretKeyRef:name: elastic-authkey: password# 调度配置 ## 设置调度策略 ## - hard只有当有足够的节点时 Pod 才会被调度并且它们永远不会出现在同一个节点上 ## - soft尽最大努力调度 antiAffinity: soft # tolerations: # - operator: Exists ##容忍全部污点然后创建用于 Data 节点安装的 values 文件 # values-data.yaml # 设置集群名称 ## 设置集群名称 clusterName: elasticsearch ## 设置节点名称 nodeGroup: data ## 设置角色 roles:master: falseingest: truedata: true# 镜像配置 ## 指定镜像与镜像版本 image: elasticsearch imageTag: 7.17.3 ## 副本数(建议设置为3我这里资源不足只用了1个副本) replicas: 3# 资源配置 ## JVM 配置参数 esJavaOpts: -Xmx1g -Xms1g ## 部署资源配置(生成环境一定要设置大些) resources:requests:cpu: 1000mmemory: 2Gilimits:cpu: 1000mmemory: 2Gi ## 数据持久卷配置 persistence:enabled: true ## 存储数据大小配置 volumeClaimTemplate:storageClassName: local-pathaccessModes: [ReadWriteOnce]resources:requests:storage: 10Gi# 安全配置 ## 设置协议可配置为 http、https protocol: http ## 证书挂载配置这里我们挂入上面创建的证书 secretMounts:- name: elastic-certssecretName: elastic-certspath: /usr/share/elasticsearch/config/certs ## 允许您在/usr/share/elasticsearch/config/中添加任何自定义配置文件,例如 elasticsearch.yml ## ElasticSearch 7.x 默认安装了 x-pack 插件部分功能免费这里我们配置下 ## 下面注掉的部分为配置 https 证书配置此部分还需要配置 helm 参数 protocol 值改为 https esConfig:elasticsearch.yml: |xpack.security.enabled: truexpack.security.transport.ssl.enabled: truexpack.security.transport.ssl.verification_mode: certificatexpack.security.transport.ssl.keystore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12xpack.security.transport.ssl.truststore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12# xpack.security.http.ssl.enabled: true# xpack.security.http.ssl.truststore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12# xpack.security.http.ssl.keystore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12 ## 环境变量配置这里引入上面设置的用户名、密码 secret 文件 extraEnvs:- name: ELASTIC_USERNAMEvalueFrom:secretKeyRef:name: elastic-authkey: username- name: ELASTIC_PASSWORDvalueFrom:secretKeyRef:name: elastic-authkey: password# 调度配置 ## 设置调度策略 ## - hard只有当有足够的节点时 Pod 才会被调度并且它们永远不会出现在同一个节点上 ## - soft尽最大努力调度 antiAffinity: soft ## 容忍配置 # tolerations: # - operator: Exists ##容忍全部污点最后一个是用于创建 Client 节点的 values 文件 # values-client.yaml # 设置集群名称 ## 设置集群名称 clusterName: elasticsearch ## 设置节点名称 nodeGroup: client ## 设置角色 roles:master: falseingest: falsedata: false# 镜像配置 ## 指定镜像与镜像版本 image: elasticsearch imageTag: 7.17.3 ## 副本数 replicas: 1# 资源配置 ## JVM 配置参数 esJavaOpts: -Xmx1g -Xms1g ## 部署资源配置(生成环境一定要设置大些) resources:requests:cpu: 1000mmemory: 2Gilimits:cpu: 1000mmemory: 2Gi ## 数据持久卷配置 persistence:enabled: false# 安全配置 ## 设置协议可配置为 http、https protocol: http ## 证书挂载配置这里我们挂入上面创建的证书 secretMounts:- name: elastic-certssecretName: elastic-certspath: /usr/share/elasticsearch/config/certs ## 允许您在/usr/share/elasticsearch/config/中添加任何自定义配置文件,例如 elasticsearch.yml ## ElasticSearch 7.x 默认安装了 x-pack 插件部分功能免费这里我们配置下 ## 下面注掉的部分为配置 https 证书配置此部分还需要配置 helm 参数 protocol 值改为 https esConfig:elasticsearch.yml: |xpack.security.enabled: truexpack.security.transport.ssl.enabled: truexpack.security.transport.ssl.verification_mode: certificatexpack.security.transport.ssl.keystore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12xpack.security.transport.ssl.truststore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12# xpack.security.http.ssl.enabled: true# xpack.security.http.ssl.truststore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12# xpack.security.http.ssl.keystore.path: /usr/share/elasticsearch/config/certs/elastic-certificates.p12 ## 环境变量配置这里引入上面设置的用户名、密码 secret 文件 extraEnvs:- name: ELASTIC_USERNAMEvalueFrom:secretKeyRef:name: elastic-authkey: username- name: ELASTIC_PASSWORDvalueFrom:secretKeyRef:name: elastic-authkey: password# Service 配置 service:type: NodePortnodePort: 30200现在用上面的 values 文件来安装 # 安装 master 节点 $ helm upgrade --install es-master -f values-master.yaml --namespace logging . # 安装 data 节点 $ helm upgrade --install es-data -f values-data.yaml --namespace logging . # 安装 client 节点 $ helm upgrade --install es-client -f values-client.yaml --namespace logging .在安装 Master 节点后 Pod 启动时候会抛出异常就绪探针探活失败这是个正常现象。在执行安装 Data 节点后 Master 节点 Pod 就会恢复正常。 安装 Kibana​ Elasticsearch 集群安装完成后接下来配置安装 Kibana 使用 helm pull 命令拉取 Kibana Chart 包并解压 $ helm pull elastic/kibana --untar --version 7.17.3 $ cd kibana创建用于安装 Kibana 的 values 文件 # values-prod.yaml ## 指定镜像与镜像版本 image: kibana imageTag: 7.17.3## 配置 ElasticSearch 地址 elasticsearchHosts: http://elasticsearch-client:9200# 环境变量配置 ## 环境变量配置这里引入上面设置的用户名、密码 secret 文件 extraEnvs:- name: ELASTICSEARCH_USERNAMEvalueFrom:secretKeyRef:name: elastic-authkey: username- name: ELASTICSEARCH_PASSWORDvalueFrom:secretKeyRef:name: elastic-authkey: password# 资源配置 resources:requests:cpu: 500mmemory: 1Gilimits:cpu: 500mmemory: 1Gi# 配置 Kibana 参数 ## kibana 配置中添加语言配置设置 kibana 为中文 kibanaConfig:kibana.yml: |i18n.locale: zh-CN# Service 配置 service:type: NodePortnodePort: 30601使用上面的配置直接安装即可 $ helm install kibana -f values-prod.yaml --namespace logging .下面是安装完成后的 ES 集群和 Kibana 资源 $ kubectl get pods -n logging NAME READY STATUS RESTARTS AGE elasticsearch-client-0 1/1 Running 0 9m25s elasticsearch-data-0 1/1 Running 0 9m33s elasticsearch-master-0 1/1 Running 0 8m29s kibana-kibana-79b9878cd7-7l75v 1/1 Running 0 6m12s $ kubectl get svc -n logging NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE elasticsearch-client NodePort 10.108.226.197 none 9200:30200/TCP,9300:32746/TCP 3m25s elasticsearch-client-headless ClusterIP None none 9200/TCP,9300/TCP 3m25s elasticsearch-data ClusterIP 10.104.121.49 none 9200/TCP,9300/TCP 3m33s elasticsearch-data-headless ClusterIP None none 9200/TCP,9300/TCP 3m33s elasticsearch-master ClusterIP 10.102.72.71 none 9200/TCP,9300/TCP 6m8s elasticsearch-master-headless ClusterIP None none 9200/TCP,9300/TCP 6m8s kibana-kibana NodePort 10.109.35.219 none 5601:30601/TCP 12s上面我们安装 Kibana 的时候指定了 30601 的 NodePort 端口所以我们可以从任意节点 http://IP:30601 来访问 Kibana。 我们可以看到会跳转到登录页面让我们输出用户名、密码这里我们输入上面配置的用户名 elastic、密码 ydzsio321 进行登录。登录成功后进入如下所示的 Kibana 主页 部署 Fluentd​ Fluentd 是一个高效的日志聚合器是用 Ruby 编写的并且可以很好地扩展。对于大部分企业来说Fluentd 足够高效并且消耗的资源相对较少另外一个工具 Fluent-bit 更轻量级占用资源更少但是插件相对 Fluentd 来说不够丰富所以整体来说Fluentd 更加成熟使用更加广泛所以这里我们使用 Fluentd 来作为日志收集工具。 工作原理​ Fluentd 通过一组给定的数据源抓取日志数据处理后转换成结构化的数据格式将它们转发给其他服务比如 Elasticsearch、对象存储等等。Fluentd 支持超过 300 个日志存储和分析服务所以在这方面是非常灵活的。主要运行步骤如下 首先 Fluentd 从多个日志源获取数据结构化并且标记这些数据然后根据匹配的标签将数据发送到多个目标服务去 配置​ 一般来说我们是通过一个配置文件来告诉 Fluentd 如何采集、处理数据的下面简单和大家介绍下 Fluentd 的配置方法。 日志源配置​ 比如我们这里为了收集 Kubernetes 节点上的所有容器日志就需要做如下的日志源配置 sourceid fluentd-containers.logtype tail # Fluentd 内置的输入方式其原理是不停地从源文件中获取新的日志。path /var/log/containers/*.log # 挂载的宿主机容器日志地址pos_file /var/log/es-containers.log.postag raw.kubernetes.* # 设置日志标签read_from_head trueparse # 多行格式化成JSONtype multi_format # 使用 multi-format-parser 解析器插件patternformat json # JSON 解析器time_key time # 指定事件时间的时间字段time_format %Y-%m-%dT%H:%M:%S.%NZ # 时间格式/patternpatternformat /^(?time.) (?streamstdout|stderr) [^ ]* (?log.*)$/time_format %Y-%m-%dT%H:%M:%S.%N%:z/pattern/parse /source上面配置部分参数说明如下 id表示引用该日志源的唯一标识符该标识可用于进一步过滤和路由结构化日志数据typeFluentd 内置的指令tail 表示 Fluentd 从上次读取的位置通过 tail 不断获取数据另外一个是 http 表示通过一个 GET 请求来收集数据。pathtail 类型下的特定参数告诉 Fluentd 采集 /var/log/containers 目录下的所有日志这是 docker 在 Kubernetes 节点上用来存储运行容器 stdout 输出日志数据的目录。pos_file检查点如果 Fluentd 程序重新启动了它将使用此文件中的位置来恢复日志数据收集。tag用来将日志源与目标或者过滤器匹配的自定义字符串Fluentd 匹配源/目标标签来路由日志数据。 路由配置​ 上面是日志源的配置接下来看看如何将日志数据发送到 Elasticsearch match **id elasticsearchtype elasticsearchlog_level infoinclude_tag_key truetype_name fluentdhost #{ENV[OUTPUT_HOST]}port #{ENV[OUTPUT_PORT]}logstash_format truebuffertype filepath /var/log/fluentd-buffers/kubernetes.system.bufferflush_mode intervalretry_type exponential_backoffflush_thread_count 2flush_interval 5sretry_foreverretry_max_interval 30chunk_limit_size #{ENV[OUTPUT_BUFFER_CHUNK_LIMIT]}queue_limit_length #{ENV[OUTPUT_BUFFER_QUEUE_LIMIT]}overflow_action block/buffer /matchmatch标识一个目标标签后面是一个匹配日志源的正则表达式我们这里想要捕获所有的日志并将它们发送给 Elasticsearch所以需要配置成**。id目标的一个唯一标识符。type支持的输出插件标识符我们这里要输出到 Elasticsearch所以配置成 elasticsearch这是 Fluentd 的一个内置插件。log_level指定要捕获的日志级别我们这里配置成 info表示任何该级别或者该级别以上INFO、WARNING、ERROR的日志都将被路由到 Elsasticsearch。host/port定义 Elasticsearch 的地址也可以配置认证信息我们的 Elasticsearch 不需要认证所以这里直接指定 host 和 port 即可。logstash_formatElasticsearch 服务对日志数据构建反向索引进行搜索将 logstash_format 设置为 trueFluentd 将会以 logstash 格式来转发结构化的日志数据。Buffer Fluentd 允许在目标不可用时进行缓存比如如果网络出现故障或者 Elasticsearch 不可用的时候。缓冲区配置也有助于降低磁盘的 IO。 过滤​ 由于 Kubernetes 集群中应用太多也还有很多历史数据所以我们可以只将某些应用的日志进行收集比如我们只采集具有 loggingtrue 这个 Label 标签的 Pod 日志这个时候就需要使用 filter如下所示 # 删除无用的属性 filter kubernetes.**type record_transformerremove_keys $.docker.container_id,$.kubernetes.container_image_id,$.kubernetes.pod_id,$.kubernetes.namespace_id,$.kubernetes.master_url,$.kubernetes.labels.pod-template-hash /filter # 只保留具有loggingtrue标签的Pod日志 filter kubernetes.**id filter_logtype grepregexpkey $.kubernetes.labels.loggingpattern ^true$/regexp /filter安装​ 要收集 Kubernetes 集群的日志直接用 DasemonSet 控制器来部署 Fluentd 应用这样它就可以从 Kubernetes 节点上采集日志确保在集群中的每个节点上始终运行一个 Fluentd 容器。当然可以直接使用 Helm 来进行一键安装为了能够了解更多实现细节我们这里还是采用手动方法来进行安装。 可以直接使用官方的对于 Kubernetes 集群的安装文档: Kubernetes - Fluentd。 首先我们通过 ConfigMap 对象来指定 Fluentd 配置文件新建 fluentd-configmap.yaml 文件文件内容如下 # fluentd-configmap.yaml kind: ConfigMap apiVersion: v1 metadata:name: fluentd-confnamespace: logging data:# 容器日志containers.input.conf: |-sourceid fluentd-containers.logtype tail # Fluentd 内置的输入方式其原理是不停地从源文件中获取新的日志path /var/log/containers/*.log # Docker 容器日志路径pos_file /var/log/es-containers.log.pos # 记录读取的位置tag raw.kubernetes.* # 设置日志标签read_from_head true # 从头读取parse # 多行格式化成JSON# 可以使用我们介绍过的 multiline 插件实现多行日志type multi_format # 使用 multi-format-parser 解析器插件patternformat json # JSON解析器time_key time # 指定事件时间的时间字段time_format %Y-%m-%dT%H:%M:%S.%NZ # 时间格式/patternpatternformat /^(?time.) (?streamstdout|stderr) [^ ]* (?log.*)$/time_format %Y-%m-%dT%H:%M:%S.%N%:z/pattern/parse/source# 在日志输出中检测异常(多行日志)并将其作为一条日志转发# https://github.com/GoogleCloudPlatform/fluent-plugin-detect-exceptionsmatch raw.kubernetes.** # 匹配tag为raw.kubernetes.**日志信息id raw.kubernetestype detect_exceptions # 使用detect-exceptions插件处理异常栈信息remove_tag_prefix raw # 移除 raw 前缀message logmultiline_flush_interval 5/matchfilter ** # 拼接日志id filter_concattype concat # Fluentd Filter 插件用于连接多个日志中分隔的多行日志key messagemultiline_end_regexp /\n$/ # 以换行符“\n”拼接separator /filter# 添加 Kubernetes metadata 数据filter kubernetes.**id filter_kubernetes_metadatatype kubernetes_metadata/filter# 修复 ES 中的 JSON 字段# 插件地址https://github.com/repeatedly/fluent-plugin-multi-format-parserfilter kubernetes.**id filter_parsertype parser # multi-format-parser多格式解析器插件key_name log # 在要解析的日志中指定字段名称reserve_data true # 在解析结果中保留原始键值对remove_key_name_field true # key_name 解析成功后删除字段parsetype multi_formatpatternformat json/patternpatternformat none/pattern/parse/filter# 删除一些多余的属性filter kubernetes.**type record_transformerremove_keys $.docker.container_id,$.kubernetes.container_image_id,$.kubernetes.pod_id,$.kubernetes.namespace_id,$.kubernetes.master_url,$.kubernetes.labels.pod-template-hash/filter# 只保留具有loggingtrue标签的Pod日志filter kubernetes.**id filter_logtype grepregexpkey $.kubernetes.labels.loggingpattern ^true$/regexp/filter###### 监听配置一般用于日志聚合用 ######forward.input.conf: |-# 监听通过TCP发送的消息sourceid forwardtype forward/sourceoutput.conf: |-match **id elasticsearchtype elasticsearchlog_level infoinclude_tag_key truehost elasticsearch-clientport 9200user elastic # FLUENT_ELASTICSEARCH_USER | FLUENT_ELASTICSEARCH_PASSWORDpassword ydzsio321logstash_format truelogstash_prefix k8srequest_timeout 30sbuffertype filepath /var/log/fluentd-buffers/kubernetes.system.bufferflush_mode intervalretry_type exponential_backoffflush_thread_count 2flush_interval 5sretry_foreverretry_max_interval 30chunk_limit_size 2Mqueue_limit_length 8overflow_action block/buffer/match上面配置文件中我们只配置了 docker 容器日志目录收集到数据经过处理后发送到 elasticsearch-client:9200 服务。 然后新建一个 fluentd-daemonset.yaml 的文件文件内容如下 apiVersion: v1 kind: ServiceAccount metadata:name: fluentd-esnamespace: logginglabels:k8s-app: fluentd-eskubernetes.io/cluster-service: trueaddonmanager.kubernetes.io/mode: Reconcile --- kind: ClusterRole apiVersion: rbac.authorization.k8s.io/v1 metadata:name: fluentd-eslabels:k8s-app: fluentd-eskubernetes.io/cluster-service: trueaddonmanager.kubernetes.io/mode: Reconcile rules:- apiGroups:- resources:- namespaces- podsverbs:- get- watch- list --- kind: ClusterRoleBinding apiVersion: rbac.authorization.k8s.io/v1 metadata:name: fluentd-eslabels:k8s-app: fluentd-eskubernetes.io/cluster-service: trueaddonmanager.kubernetes.io/mode: Reconcile subjects:- kind: ServiceAccountname: fluentd-esnamespace: loggingapiGroup: roleRef:kind: ClusterRolename: fluentd-esapiGroup: --- apiVersion: apps/v1 kind: DaemonSet metadata:name: fluentdnamespace: logginglabels:app: fluentdkubernetes.io/cluster-service: true spec:selector:matchLabels:app: fluentdtemplate:metadata:labels:app: fluentdkubernetes.io/cluster-service: truespec:tolerations:- key: node-role.kubernetes.io/mastereffect: NoScheduleserviceAccountName: fluentd-escontainers:- name: fluentdimage: quay.io/fluentd_elasticsearch/fluentd:v3.4.0volumeMounts:- name: fluentconfigmountPath: /etc/fluent/config.d- name: varlogmountPath: /var/logvolumes:- name: fluentconfigconfigMap:name: fluentd-conf- name: varloghostPath:path: /var/log我们将上面创建的 fluentd-config 这个 ConfigMap 对象通过 volumes 挂载到了 Fluentd 容器中另外为了能够灵活控制哪些节点的日志可以被收集还可以添加了一个 nodSelector 属性 nodeSelector:beta.kubernetes.io/fluentd-ds-ready: true意思就是要想采集节点的日志那么我们就需要给节点打上上面的标签。 !!! info 提示 如果你需要在其他节点上采集日志则需要给对应节点打上标签使用如下命令kubectl label nodes node名 beta.kubernetes.io/fluentd-ds-readytrue。 另外由于我们的集群使用的是 kubeadm 搭建的默认情况下 master 节点有污点所以如果要想也收集 master 节点的日志则需要添加上容忍 tolerations:- operator: Exists分别创建上面的 ConfigMap 对象和 DaemonSet $ kubectl create -f fluentd-configmap.yaml configmap fluentd-conf created $ kubectl create -f fluentd-daemonset.yaml serviceaccount fluentd-es created clusterrole.rbac.authorization.k8s.io fluentd-es created clusterrolebinding.rbac.authorization.k8s.io fluentd-es created daemonset.apps fluentd created创建完成后查看对应的 Pods 列表检查是否部署成功 $ kubectl get pods -n logging NAME READY STATUS RESTARTS AGE elasticsearch-client-0 1/1 Running 0 64m elasticsearch-data-0 1/1 Running 0 65m elasticsearch-master-0 1/1 Running 0 73m fluentd-5rqbq 1/1 Running 0 60m fluentd-l6mgf 1/1 Running 0 60m fluentd-xmfpg 1/1 Running 0 60m kibana-66f97964b-mdspc 1/1 Running 0 63mFluentd 启动成功后这个时候就可以发送日志到 ES 了但是我们这里是过滤了只采集具有 loggingtrue 标签的 Pod 日志所以现在还没有任何数据会被采集。 下面我们部署一个简单的测试应用 新建 counter.yaml 文件文件内容如下 apiVersion: v1 kind: Pod metadata:name: counterlabels:logging: true # 一定要具有该标签才会被采集 spec:containers:- name: countimage: busyboxargs:[/bin/sh,-c,i0; while true; do echo $i: $(date); i$((i1)); sleep 1; done,]该 Pod 只是简单将日志信息打印到 stdout所以正常来说 Fluentd 会收集到这个日志数据在 Kibana 中也就可以找到对应的日志数据了使用 kubectl 工具创建该 Pod $ kubectl create -f counter.yaml $ kubectl get pods NAME READY STATUS RESTARTS AGE counter 1/1 Running 0 9hPod 创建并运行后回到 Kibana Dashboard 页面点击左侧最下面的 Management - Stack Management进入管理页面点击左侧 Kibana 下面的 索引模式点击 创建索引模式 开始导入索引数据 在这里可以配置我们需要的 Elasticsearch 索引前面 Fluentd 配置文件中我们采集的日志使用的是 logstash 格式定义了一个 k8s 的前缀所以这里只需要在文本框中输入 k8s-* 即可匹配到 Elasticsearch 集群中采集的 Kubernetes 集群日志数据然后点击下一步进入以下页面 在该页面中配置使用哪个字段按时间过滤日志数据在下拉列表中选择timestamp字段然后点击 创建索引模式创建完成后点击左侧导航菜单中的 Discover然后就可以看到一些直方图和最近采集到的日志数据了 现在的数据就是上面 Counter 应用的日志如果还有其他的应用我们也可以筛选过滤 我们也可以通过其他元数据来过滤日志数据比如您可以单击任何日志条目以查看其他元数据如容器名称Kubernetes 节点命名空间等。 安装 Kafka​ 对于大规模集群来说日志数据量是非常巨大的如果直接通过 Fluentd 将日志打入 Elasticsearch对 ES 来说压力是非常巨大的我们可以在中间加一层消息中间件来缓解 ES 的压力一般情况下我们会使用 Kafka然后可以直接使用 kafka-connect-elasticsearch 这样的工具将数据直接打入 ES也可以在加一层 Logstash 去消费 Kafka 的数据然后通过 Logstash 把数据存入 ES这里我们来使用 Logstash 这种模式来对日志收集进行优化。 首先在 Kubernetes 集群中安装 Kafka同样这里使用 Helm 进行安装 $ helm repo add bitnami https://charts.bitnami.com/bitnami $ helm repo update首先使用 helm pull 拉取 Chart 并解压 $ helm pull bitnami/kafka --untar --version 17.2.3 $ cd kafka这里面我们指定使用一个 StorageClass 来提供持久化存储在 Chart 目录下面创建用于安装的 values 文件 # values-prod.yaml ## section Persistence parameters persistence:enabled: truestorageClass: local-pathaccessModes:- ReadWriteOncesize: 8GimountPath: /bitnami/kafka# 配置zk volumes zookeeper:enabled: truepersistence:enabled: truestorageClass: local-pathaccessModes:- ReadWriteOncesize: 8Gi直接使用上面的 values 文件安装 kafka $ helm upgrade --install kafka -f values-prod.yaml --namespace logging . Release kafka does not exist. Installing it now. NAME: kafka LAST DEPLOYED: Thu Jun 9 14:02:01 2022 NAMESPACE: logging STATUS: deployed REVISION: 1 TEST SUITE: None NOTES: CHART NAME: kafka CHART VERSION: 17.2.3 APP VERSION: 3.2.0** Please be patient while the chart is being deployed **Kafka can be accessed by consumers via port 9092 on the following DNS name from within your cluster:kafka.logging.svc.cluster.localEach Kafka broker can be accessed by producers via port 9092 on the following DNS name(s) from within your cluster:kafka-0.kafka-headless.logging.svc.cluster.local:9092To create a pod that you can use as a Kafka client run the following commands:kubectl run kafka-client --restartNever --image docker.io/bitnami/kafka:3.2.0-debian-10-r4 --namespace logging --command -- sleep infinitykubectl exec --tty -i kafka-client --namespace logging -- bashPRODUCER:kafka-console-producer.sh \--broker-list kafka-0.kafka-headless.logging.svc.cluster.local:9092 \--topic testCONSUMER:kafka-console-consumer.sh \--bootstrap-server kafka.logging.svc.cluster.local:9092 \--topic test \--from-beginning安装完成后我们可以使用上面的提示来检查 Kafka 是否正常运行 $ kubectl get pods -n logging -l app.kubernetes.io/instancekafka kafka-0 1/1 Running 0 7m58s kafka-zookeeper-0 1/1 Running 0 7m58s用下面的命令创建一个 Kafka 的测试客户端 Pod $ kubectl run kafka-client --restartNever --image docker.io/bitnami/kafka:3.2.0-debian-10-r4 --namespace logging --command -- sleep infinity pod/kafka-client created然后启动一个终端进入容器内部生产消息 # 生产者 $ kubectl exec --tty -i kafka-client --namespace logging -- bash I have no name!kafka-client:/$ kafka-console-producer.sh --broker-list kafka-0.kafka-headless.logging.svc.cluster.local:9092 --topic test hello kafka on k8s启动另外一个终端进入容器内部消费消息 # 消费者 $ kubectl exec --tty -i kafka-client --namespace logging -- bash I have no name!kafka-client:/$ kafka-console-consumer.sh --bootstrap-server kafka.logging.svc.cluster.local:9092 --topic test --from-beginning hello kafka on k8s如果在消费端看到了生产的消息数据证明我们的 Kafka 已经运行成功了。 Fluentd 配置 Kafka​ 现在有了 Kafka我们就可以将 Fluentd 的日志数据输出到 Kafka 了只需要将 Fluentd 配置中的 match 更改为使用 Kafka 插件即可但是在 Fluentd 中输出到 Kafka需要使用到 fluent-plugin-kafka 插件所以需要我们自定义下 Docker 镜像最简单的做法就是在上面 Fluentd 镜像的基础上新增 kafka 插件即可Dockerfile 文件如下所示 FROM quay.io/fluentd_elasticsearch/fluentd:v3.4.0 RUN echo source https://mirrors.tuna.tsinghua.edu.cn/rubygems/ Gemfile gem install bundler RUN gem install fluent-plugin-kafka -v 0.17.5 --no-document使用上面的 Dockerfile 文件构建一个 Docker 镜像即可我这里构建过后的镜像名为 cnych/fluentd-kafka:v0.17.5。接下来替换 Fluentd 的 Configmap 对象中的 match 部分如下所示 # fluentd-configmap.yaml kind: ConfigMap apiVersion: v1 metadata:name: fluentd-confnamespace: logging data:......output.conf: |-match **id kafkatype kafka2log_level info# list of seed brokersbrokers kafka-0.kafka-headless.logging.svc.cluster.local:9092use_event_time true# topic settingstopic_key k8slogdefault_topic messages # 注意kafka中消费使用的是这个topic# buffer settingsbuffer k8slogtype filepath /var/log/td-agent/buffer/tdflush_interval 3s/buffer# data type settingsformattype json/format# producer settingsrequired_acks -1compression_codec gzip/match然后替换运行的 Fluentd 镜像 # fluentd-daemonset.yaml image: cnych/fluentd-kafka:v0.17.5直接更新 Fluentd 的 Configmap 与 DaemonSet 资源对象即可 $ kubectl apply -f fluentd-configmap.yaml $ kubectl apply -f fluentd-daemonset.yaml更新成功后我们可以使用上面的测试 Kafka 客户端来验证是否有日志数据 $ kubectl exec --tty -i kafka-client --namespace logging -- bash I have no name!kafka-client:/$ kafka-console-consumer.sh --bootstrap-server kafka.logging.svc.cluster.local:9092 --topic messages --from-beginning {stream:stdout,docker:{},kubernetes:{container_name:count,namespace_name:default,pod_name:counter,container_image:busybox:latest,host:node1,labels:{logging:true}},message:43883: Tue Apr 27 12:16:30 UTC 2021\n} ......安装 Logstash​ 虽然数据从 Kafka 到 Elasticsearch 的方式多种多样比如可以使用 Kafka Connect Elasticsearch Connector 来实现我们这里还是采用更加流行的 Logstash 方案上面我们已经将日志从 Fluentd 采集输出到 Kafka 中去了接下来我们使用 Logstash 来连接 Kafka 与 Elasticsearch 间的日志数据。 首先使用 helm pull 拉取 Chart 并解压 $ helm pull elastic/logstash --untar --version 7.17.3 $ cd logstash同样在 Chart 根目录下面创建用于安装的 Values 文件如下所示 # values-prod.yaml fullnameOverride: logstashpersistence:enabled: truelogstashConfig:logstash.yml: |http.host: 0.0.0.0# 如果启用了xpack需要做如下配置xpack.monitoring.enabled: truexpack.monitoring.elasticsearch.hosts: [http://elasticsearch-client:9200]xpack.monitoring.elasticsearch.username: elasticxpack.monitoring.elasticsearch.password: ydzsio321# 要注意下格式 logstashPipeline:logstash.conf: |input { kafka { bootstrap_servers kafka-0.kafka-headless.logging.svc.cluster.local:9092 codec json consumer_threads 3 topics [messages] } }filter {} # 过滤配置比如可以删除key、添加geoip等等output { elasticsearch { hosts [ elasticsearch-client:9200 ] user elastic password ydzsio321 index logstash-k8s-%{YYYY.MM.dd} } stdout { codec rubydebug } }volumeClaimTemplate:accessModes: [ReadWriteOnce]storageClassName: nfs-storageresources:requests:storage: 1Gi其中最重要的就是通过 logstashPipeline 配置 logstash 数据流的处理配置通过 input 指定日志源 kafka 的配置通过 output 输出到 Elasticsearch同样直接使用上面的 Values 文件安装 logstash 即可 $ helm upgrade --install logstash -f values-prod.yaml --namespace logging . Release logstash does not exist. Installing it now. NAME: logstash LAST DEPLOYED: Thu Jun 9 15:02:49 2022 NAMESPACE: logging STATUS: deployed REVISION: 1 TEST SUITE: None NOTES: 1. Watch all cluster members come up.$ kubectl get pods --namespacelogging -l applogstash -w安装启动完成后可以查看 logstash 的日志 $ logstash kubectl get pods --namespacelogging -l applogstash NAME READY STATUS RESTARTS AGE logstash-0 1/1 Running 0 2m8s $ kubectl logs -f logstash-0 -n logging ...... {version 1,stream stdout,timestamp 2022-06-09T07:09:16.889Z,message 4672: Thu Jun 9 07:09:15 UTC 2022,kubernetes {container_image docker.io/library/busybox:latest,container_name count,labels {logging true},pod_name counter,namespace_name default,pod_ip 10.244.2.118,host node2,namespace_labels {kubernetes_io/metadata_name default}},docker {} }由于我们启用了 debug 日志调试所以我们可以在 logstash 的日志中看到我们采集的日志消息到这里证明我们的日志数据就获取成功了。 现在我们可以登录到 Kibana 可以看到有如下所示的索引数据了 然后同样创建索引模式匹配上面的索引即可 创建完成后就可以前往发现页面过滤日志数据了 到这里我们就实现了一个使用 FluentdKafkaLogstashElasticsearchKibana 的 Kubernetes 日志收集工具栈这里我们完整的 Pod 信息如下所示 $ kubectl get pods -n logging NAME READY STATUS RESTARTS AGE elasticsearch-client-0 1/1 Running 0 128m elasticsearch-data-0 1/1 Running 0 128m elasticsearch-master-0 1/1 Running 0 128m fluentd-6k52h 1/1 Running 0 61m fluentd-cw72c 1/1 Running 0 61m fluentd-dn4hs 1/1 Running 0 61m kafka-0 1/1 Running 3 134m kafka-client 1/1 Running 0 125m kafka-zookeeper-0 1/1 Running 0 134m kibana-kibana-66f97964b-qqjgg 1/1 Running 0 128m logstash-0 1/1 Running 0 13m当然在实际的工作项目中还需要我们根据实际的业务场景来进行参数性能调优以及高可用等设置以达到系统的最优性能。 上面我们在配置 logstash 的时候是将日志输出到 logstash-k8s-%{YYYY.MM.dd} 这个索引模式的可能有的场景下只通过日期去区分索引不是很合理那么我们可以根据自己的需求去修改索引名称比如可以根据我们的服务名称来进行区分那么这个服务名称可以怎么来定义呢可以是 Pod 的名称或者通过 label 标签去指定比如我们这里去做一个规范要求需要收集日志的 Pod 除了需要添加 logging: true 这个标签之外还需要添加一个 logIndex: 索引名 的标签。 比如重新更新我们测试的 counter 应用 apiVersion: v1 kind: Pod metadata:name: counterlabels:logging: true # 一定要具有该标签才会被采集logIndex: test # 指定索引名称 spec:containers:- name: countimage: busyboxargs:[/bin/sh,-c,i0; while true; do echo $i: $(date); i$((i1)); sleep 1; done,]然后重新更新 logstash 的配置修改 values 配置 # ...... logstashPipeline:logstash.conf: |input { kafka { bootstrap_servers kafka-0.kafka-headless.logging.svc.cluster.local:9092 codec json consumer_threads 3 topics [messages] } }filter {} # 过滤配置比如可以删除key、添加geoip等等output { elasticsearch { hosts [ elasticsearch-client:9200 ] user elastic password ydzsio321 index k8s-%{[kubernetes][labels][logIndex]}-%{YYYY.MM.dd} } stdout { codec rubydebug } }# ......使用上面的 values 值更新 logstash正常更新后上面的 counter 这个 Pod 日志会输出到一个名为 k8s-test-2022.06.09 的索引去。 这样我们就实现了自定义索引名称当然你也可以使用 Pod 名称、容器名称、命名空间名称来作为索引的名称这完全取决于你自己的需求。
http://www.tj-hxxt.cn/news/216600.html

相关文章:

  • 网页设计商城网站建设宣传片制作公司前景
  • 东莞网站建设报价方案网站动态加速
  • 云南建设厅网站 安全员无锡网站公司哪家好
  • 一些做的好的网站西安市阎良区建设局网站
  • 网站设计公司官网网站开发的话术
  • 外贸网站建设不可缺少的灵活性贪玩原始传奇官方网站
  • 做那个网站的小编比较好wordpress内容搬家
  • 做网站都需要具备什么中国贸易服务网
  • 湖北网站建设服务wordpress 代码调用
  • 北京展览网站建设高校校园网络设计方案
  • 做推广赚钱的网站WordPress网站加载时间
  • 视频弹幕网站怎么做的深圳市南山区住房和建设局网站官网
  • 遂宁市建设银行网站教育培训网站
  • 当涂网站建设学做窗帘要下载哪个网站
  • 研究网站建设网页升级紧急通知写作
  • 百怎么做网站制作网站一般要多少钱
  • 备案 网站错了青海省住房和城乡建设厅的官方网站
  • 网站建设公司厦门wordpress主题外贸私人分享
  • 北京 房地产 网站建设wordpress 域名授权
  • 网站制作排名响应式网站一般做几个尺寸
  • 响应式英文网站建设定制网站报价
  • 如何做收费影视资源网站如何做盗版电影网站
  • 苏州市建设工程交易中心网站江苏省教育网站官网
  • 阿里巴巴的网站应该怎么做网站开发 承接
  • 网站 后台 模板网站一键生成手机网站
  • 彩票网站平台外贸高端网站定制
  • 花木企业网站源码wordpress最底部
  • wordpress后台为什么这么慢百度seo快速见效方法
  • 上海网站的优化公司哪家好wordpress后台速度慢
  • 筑云网站投诉最新新闻热点事件简短