哪个网站开发好,江小白采用的网络营销方式,wordpress采集插件,网站制作需要哪些东西Kibana是一个开源的分析与可视化平台#xff0c;设计出来用于和Elasticsearch一起使用的。你可以用kibana搜索、查看存放在Elasticsearch中的数据。 Kibana与Elasticsearch的交互方式是各种不同的图表、表格、地图等#xff0c;直观的展示数据#xff0c;从而达到高级的数据…Kibana是一个开源的分析与可视化平台设计出来用于和Elasticsearch一起使用的。你可以用kibana搜索、查看存放在Elasticsearch中的数据。 Kibana与Elasticsearch的交互方式是各种不同的图表、表格、地图等直观的展示数据从而达到高级的数据分析与可视化的目的。 Elasticsearch、Logstash和Kibana这三个技术就是我们常说的ELK技术栈可以说这三个技术的组合是大数据领域中一个很巧妙的设计。 一种很典型的MVC思想模型持久层视图层和控制层。Logstash担任控制层的角色负责搜集和过滤数据。Elasticsearch担任数据持久层的角色 负责储存数据。而我们这章的主题Kibana担任视图层角色拥有各种维度的查询和分析并使用图形化的界面展示存放在Elasticsearch中的数据。
1.1 Elasticsearch 安装
官网
Elasticsearch 平台 — 大规模查找实时答案 | Elastic
Install Elasticsearch with Docker | Elasticsearch Guide [7.5] | Elastic
es下载地址
https://www.elastic.co/cn/downloads/past-releases#elasticsearch 1.2 Elasticsearch ik 安装
ik官网
https://github.com/infinilabs/analysis-ik
ik下载地址
Release v6.4.3 · infinilabs/analysis-ik · GitHub
1.3 kibana下载
Kibana 官方网址https://www.elastic.co/cn/products/kibana Kibana 官方下载地址https://www.elastic.co/cn/downloads/kibana 官方 docker 镜像地址https://www.docker.elastic.co/
1.4 libreOffice下载预览pdf
Index of /libreoffice/old 单机版
compose-prq-es.yml文件
本章以
elasticsearch:7.9.0、
kibana:7.9.0、 (es界面
elasticsearch-analysis-ik-7.9.0.zip 分词器
libreoffice/online:latest为例 (pdf预览)
注意kibana的版本要和es一致
# yaml 配置
version: 3
services:elasticsearch:image: elasticsearch:7.9.0container_name: elasticsearchrestart: alwaysprivileged: trueenvironment:- discovery.typesingle-node # 单机模式- ES_JAVA_OPTS-Xms512m -Xmx1024m #表示elasticsearch的内存占用大小从512mb~1024mb# - bootstrap.memory_locktruevolumes:- /home/docker/volumes/prq_data/_data/elasticsearch_data/plugins:/usr/share/elasticsearch/plugins- /home/docker/volumes/prq_data/_data/elasticsearch_data/data:/usr/share/elasticsearch/data- /home/docker/volumes/prq_data/_data/elasticsearch_data/logs:/usr/share/elasticsearch/logs- /etc/localtime:/etc/localtime- /etc/timezone:/etc/timezoneports:- 9200:9200- 9300:9300kibana:image: kibana:7.9.0container_name: kibanarestart: alwaysdepends_on:- elasticsearchenvironment:ELASTICSEARCH_HOSTS: http://10.194.17.106:9200I18N_LOCALE: zh-CNports:- 5601:5601libreoffice:image: libreoffice/online:latestcontainer_name: libreofficeports:- 9980:9980restart: alwaysprivileged: truevolumes:- /etc/localtime:/etc/localtime- /etc/timezone:/etc/timezone- /home/docker/volumes/prq_data/_data/libreoffice_data/loolwsd.xml:/etc/loolwsd/loolwsd.xmlenvironment:- domiandomain.com- usernameadmin- password123456cap_add:- MKNODinstall.sh脚本
#!/bin/bashecho current shell execute direcoty:pwd
updatedb
pathdirname $variable_path
echo swich direcoty to prq shell directory:${path}
cd ${path}
pwdimage_home./images
image_kibanakibana-7.9.0.tar.gz
image_libreofficelibreoffice-online.tar.gz
image_eselasticsearch-7.9.0.tar.gz# prq文件映射路径 prq_data_path
prq_data_path/home/docker/volumes/prq_data/_dataecho Loading docker images ...
docker load -i ${image_home}/${image_es}
docker load -i ${image_home}/${image_libreoffice}
docker load -i ${image_home}/${image_kibana}echo Creating volumes ...
docker volume create prq_dataecho preparing for envrionment ...mkdir -vp ${prq_data_path}/elasticsearch_data/plugins/ik ${prq_data_path}/elasticsearch_data/data ${prq_data_path}/elasticsearch_data/logs ${prq_data_path}/elasticsearch_data/configcp ${image_home}/elasticsearch-analysis-ik-7.9.0.zip ${prq_data_path}/elasticsearch_data/plugins/ikcd ${prq_data_path}/elasticsearch_data/plugins/ikunzip elasticsearch-analysis-ik-7.9.0.zip
cd ${path}
mkdir -vp ${prq_data_path}/libreoffice_data/
chmod -R 777 ${prq_data_path}/libreoffice_dataecho copy config file to destination location start cp conf/loolwsd.xml ${prq_data_path}/libreoffice_data/echo config file copy finished echo grant permisssion ...
chmod 777 -R ${prq_data_path}sysctl vm.overcommit_memory1echo Starting containers... echo creating other containers ...docker-compose -f compose-prq-es.yml up -d 可以看到我们需要用到的目录为:
config配置文件
data数据存储的目录
plugins插件的目录目前我们放入IK的分词插件需要将elasticsearch-analysis-ik-7.9.0.zip在plugins/ik目录下解压 测试 显示如下页面则成功了,安装的ip:port ik安装成功 或者用postman测试ik是否安装成功 两个postman不同点是多了分词器analyzer,不加分词器默认是standand,即一个字一个字解析。 ik分词器模式介绍 1. 细粒度分词模式ik_smart 这是默认的分词模式它会尽可能地将句子切分为最小的词语单元。它不仅可以识别普通词汇还可以识别一些常见的专有名词、地名、人名等。
2. 智能分词模式ik_max_word 这种模式会在细粒度分词的基础上对长词进行进一步的切分。它可以识别更多的词语但也会增加一些不必要的词语。