0
点赞
收藏
分享

微信扫一扫

ELK+Filebead+zookeeper+kafka部署

小月亮06 2022-10-12 阅读 169

目录

一、为什么要做日志分析平台?

二、ELK+Filebeat+Kafka+Zookeeper架构

三、搭建ELK+Filebeat+Kafka+Zookeeper

1、3台机子安装zookeeper  192.168.100.14/15/16

1.1 解压安装zookeeper软件包

1.2 修改Zookeeper配置配置文件

1.3 设置myid号以及启动脚本

1.4 3台机器启动zookeeper

2、安装kafka  192.168.100.14/15/16

2.1 安装 kafka(3台机子都要操作)

2.2 修改配置文件

2.3 将相关命令加入到系统环境当中

2.4 启动kafka

Kafka 命令行操作

2.5 创建topic

2.6 测试topic

3、配置数据采集层filebeat(192.168.100.17)

3.1 定制日志格式

3.2 上传、解压安装包

3.3 修改配置文件filebeat.yml

3.4 启动filebeat

4、所有组件部署完成之后,开始配置部署

4.1 在kafka上创建一个话题nginx-es

4.2 修改logstash的配置文件

4.3 验证网页

4.4 Kibana上创建索引


一、为什么要做日志分析平台?

随着业务量的增长,每天业务服务器将会产生上亿条的日志,单个日志文件达几个GB,这时我们发现用Linux自带工具,cat grep awk 分析越来越力不从心了,而且除了服务器日志,还有程序报错日志,分布在不同的服务器,查阅繁琐。

二、ELK+Filebeat+Kafka+Zookeeper架构

三、搭建ELK+Filebeat+Kafka+Zookeeper

 ip地址所属集群安装软件包
192.168.100.11ElasticsearchElasticsearch集群
192.168.100.12ElasticsearchElasticsearch集群
192.168.100.13Logstash数据转发
 192.168.100.14kafka+zookeeperkafka+zookeeper
192.168.100.15 kafka+zookeeperkafka+zookeeper
192.168.100.16kafka+zookeeperkafka+zookeeper
192.168.100.17filebeat配置数据采集层

本实验基于ELK已经搭好的情况下

1、3台机子安装zookeeper  192.168.100.14/15/16

Zookpeer下载地址:apache-zookeeper-3.7.1-bin.tar.gz

1.1 解压安装zookeeper软件包

1.2 修改Zookeeper配置配置文件

1.3 设置myid号以及启动脚本

到这里就不要设置同步了,下面的操作,做好一台机器一台机器的配置。

1.4 3台机器启动zookeeper

2、安装kafka  192.168.100.14/15/16

2.1 安装 kafka(3台机子都要操作)

2.2 修改配置文件

2.3 将相关命令加入到系统环境当中

2.4 启动kafka

Kafka 命令行操作

创建topic

kafka-topics.sh --create --zookeeper 192.168.121.10:2181,192.168.121.12:2181,192.168.121.14:2181 --replication-factor 2 --partitions 3 --topic test
–zookeeper:定义 zookeeper 集群服务器地址,如果有多个 IP 地址使用逗号分割,一般使用一个 IP 即可
–replication-factor:定义分区副本数,1 代表单副本,建议为 2
–partitions:定义分区数
–topic:定义 topic 名称
查看当前服务器中的所有 topic

kafka-topics.sh --list --zookeeper 192.168.121.10:2181,192.168.121.12:2181,192.168.121.14:2181
查看某个 topic 的详情

kafka-topics.sh  --describe --zookeeper 192.168.121.10:2181,192.168.121.12:2181,192.168.121.14:2181
发布消息

kafka-console-producer.sh --broker-list 192.168.121.10:9092,192.168.121.12:9092,192.168.121.14:9092  --topic test
消费消息

kafka-console-consumer.sh --bootstrap-server 192.168.121.10:9092,192.168.121.12:9092,192.168.121.14:9092 --topic test --from-beginning
 

删除 topic

kafka-topics.sh 
--delete --zookeeper 192.168.80.10:2181,192.168.80.11:2181,192.168.80.12:2181 --topic test

2.5 创建topic

2.6 测试topic

消费消息

3、配置数据采集层filebeat(192.168.100.17)

3.1 定制日志格式

3.2 上传、解压安装包

3.3 修改配置文件filebeat.yml

3.4 启动filebeat

4、所有组件部署完成之后,开始配置部署

4.1 在kafka上创建一个话题nginx-es

4.2 修改logstash的配置文件

systemctl restart logstash

4.3 验证网页

4.4 Kibana上创建索引

 

举报

相关推荐

0 条评论