Kafka集群搭建+ELK集群协同工作实验记录
背景 :前面已经部署了ELK集群, 见ELK集群部署 。这里结合kafka使用做个案例实验,用于展示如何将这些技术结合起来处理和分析日志数据。 kafka1:10.170.0.8 kafka2:10.170.0.9 kafka3:10.170.0.10 目标 :构建一个简单的ELK + Kafka系统,用于实时收集、处理、分析和可视化日志数据。 架构组件 Kafka: 作为日志消息的中间存储,提供高吞吐量的日志消息队列。 Logstash: 作为日志处理管道,从Kafka消费日志,进行处理和解析,然后输出到Elasticsearch。 Elasticsearch: 用于存储、搜索和分析日志数据。 Kibana: 用于日志数据的可视化和搜索分析。 一,安装配置kafka集群 1.1,安装JDK8 dnf install -y java-1.8.0-openjdk 1.2,下载kafka wget https://archive.apache.org/dist/kafka/3.6.0/kafka-3.6.0-src.tgz tar -zxvf kafka-3.6.0-src.tgz -C /usr/local/ mv /usr/local/kafka-3.6.0-src/ /usr/local/kafka/ && cd /usr/local/kafka/ 1.3,配置zookeeper #配置文件 /usr/local/kafka/config/zookeeper.properties [root@kafka1 kafka]# grep -Ev "^$|[#;]" /usr/local/kafka/config/zookeeper.properties dataDir=/opt/data/zookeeper/data dataLogDir=/opt/data/zookeeper/logs clientPort=2181 tickTime=2000 initLimit=20 syncLimit=10 maxClientCnxns=0 admin.enableServer=false server.1=10.170...