作者:1234567山02 | 来源:互联网 | 2023-09-11 14:50
Elasticsearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTfulweb接口风格的搜索和数据分析引擎。Kib
Elasticsearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口风格的搜索和数据分析引擎。
Kibana 是一款开源的数据分析和可视化平台,它是 Elastic Stack 成员之一,设计用于和 Elasticsearch 协作。您可以使用 Kibana 对 Elasticsearch 索引中的数据进行搜索、查看、交互操作。您可以很方便的利用图表、表格及地图对数据进行多元化的分析和呈现。
Logstash是 Elastic Stack 的中央数据流引擎(数据收集引擎),用于收集、丰富和统一所有数据,而不管格式或模式。
当Logstash与Elasticsearch,Kibana,及 Beats 共同使用的时候便会拥有特别强大的实时处理能力(ELK)。
1、Elasticsearch 搜索,下载,查询
# 搜索镜像
docker search elasticsearch# 下载镜像
docker pull elasticsearch
docker pull elasticsearch:7.15.2# 查看镜像
docker images
2、Logstash 搜索,下载,查询
# 搜索镜像
docker search logstash# 下载镜像
docker pull logstash:7.15.2# 查看镜像
docker images
3、Kibana 搜索,下载,查询
# 搜索镜像
docker search kibana# 下载镜像
docker pull kibana:latest
docker pull kibana:7.15.2# 查看镜像
docker images
4、创建挂载目录 Elasticsearch
mkdir -p /home/20221125/myelk/es/{config,logs,data,plugins}
chown -R 1000:1000 /data/myelk/es
touch /home/20221125/myelk/es/config/elasticsearch.yml
5、创建挂载目录 Logstash
mkdir -p /home/20221125/myelk/logstash/{config,logs,pipeline}
mkdir -p /home/20221125/myelk/logstash/config/conf.d
chmod 777 -R /home/20221125/myelk/logstashtouch /home/20221125/myelk/logstash/config/logstash.yml
vim /home/20221125/myelk/logstash/config/logstash.yml##增加配置http.host: "0.0.0.0" # 注意 0.0.0.0 不是指定ipxpack.monitoring.enabled: truexpack.monitoring.elasticsearch.hosts: [ "http://192.168.31.196:9200" ]xpack.monitoring.elasticsearch.username: "elastic" #es xpack账号xpack.monitoring.elasticsearch.password: "xxxx" #es xpack账号path.config: /usr/share/logstash/config/conf.d/*.confpath.logs: /usr/share/logstash/logs
6、创建挂载目录 Kibana
mkdir -p /home/20221125/myelk/kibana/{config,data}touch /home/20221125/myelk/kibana/config/kibana.ymlvim /home/20221125/myelk/kibana/config/kibana.yml
##增加配置server.name: kibanaserver.host: "0.0.0.0"server.port: 5601#elasticsearch.hosts: [ "http://elasticsearch:9200" ]elasticsearch.hosts: [ "http://192.168.1.1:9200" ] 注意这里的ip不能是localhost,是本地的ip地址xpack.monitoring.ui.container.elasticsearch.enabled: true#设置kibana中文显示i18n.locale: zh-CNelasticsearch.url: "http://10.132.200.4:9200" #这里是7.0版本以下的配置,默认不支持集群,7.0版本的es的地址直接是“http://elasticsearch-cluster”直接这样配置访问
7、运行容器 Elasticsearch
# 容器 elasticsearch 样例1
docker run -it -p 9200:9200 -p 9300:9300 \--name first-es \-e ES_JAVA_OPTS="-Xms1g -Xmx1g" \-e "discovery.type=single-node" \--restart=always \-v /data/elk/es/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \-v /data/elk/es/data:/usr/share/elasticsearch/data \-v /data/elk/es/logs:/usr/share/elasticsearch/logs \-d elasticsearch:7.15.2# 容器 elasticsearch 样例2
docker run --name first-elasticsearch -p 9200:9200 -p 9300:9300 \-e "discovery.type=single-node" \-e ES_JAVA_OPTS="-Xms84m -Xmx512m" \-v /opt/es_docker/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \-v /opt/es_docker/data:/usr/share/elasticsearch/data \-v /opt/es_docker/plugins:/usr/share/elasticsearch/plugins \-d elasticsearch:7.15.2# 参数说明:-e "cluster.name=es-docker-cluster":设置集群名称-e "http.host=0.0.0.0":监听的地址,可以外网访问-e "ES_JAVA_OPTS=-Xms512m -Xmx512m":内存大小-e "discovery.type=single-node":非集群模式,discovery.type=single-node(单机运行)-v es-data:/usr/share/elasticsearch/data:挂载逻辑卷,绑定es的数据目录-v es-logs:/usr/share/elasticsearch/logs:挂载逻辑卷,绑定es的日志目录-v es-plugins:/usr/share/elasticsearch/plugins:挂载逻辑卷,绑定es的插件目录--privileged:授予逻辑卷访问权--network es-net :加入一个名为es-net的网络中-p 9200:9200:端口映射配置# 查看容器运行日志
docker logs firstmongo# 查看容器IP地址
docker inspect first-es
# "IPAddress": "172.17.0.2"# 查看容器IP地址
docker inspect first-es | grep 'IPAddress'# 进入容器
docker exec -it first-es /bin/bash
docker exec -it first-es bash
ls -l
8、运行容器 Logstash
*
*
*
9、运行容器 Kibana
docker run --name first-kibana \-p 5601:5601 \--log-driver json-file \--log-opt max-size=100m \--log-opt max-file=2 \-v /data/elk/kibana/kibana.yml:/usr/share/kibana/config/kibana.yml \--restart=always \-d kibana:7.15.2# 查看容器运行日志
docker logs first-kibana# 查看容器IP地址
docker inspect first-kibana
# "IPAddress": "172.17.0.2"# 查看容器IP地址
docker inspect first-kibana | grep 'IPAddress'# 进入容器
docker exec -it first-kibana /bin/bash
docker exec -it first-kibana bash
ls -l
*
*
*