安裝kafka並設置通過外網ip訪問

1、kafka 安裝

安裝JDK

tar xvf jdk1.8.0_231.tar.gz  -C /usr/local && cd   /usr/local
ln -sv jdk1.8.0_231 jdk 

vim /etc/profile.d/java.sh
    JAVA_HOME=/usr/local/jdk
    PATH=$JAVA_HOME/bin:$PATH

zookeeper安裝(或使用kafka自帶的)

vim /usr/local/kafka/zookeeper/conf/zoo.cfg   
   tickTime=2000
   initLimit=10
   syncLimit=5
   dataDir=/data/zookeeper
   clientPort=2181
   maxClientCnxns=0

   # 集羣版的zookeeper添加如下配置
   # server.1=ip1:2888:3888
   # server.2=ip2:2888:3888
   # server.3=ip3:28888:3888

下載kafka和安裝kakfa

wget https://archive.apache.org/dist/kafka/0.10.2.1/kafka_2.11-0.10.2.1.tgz

tar xvf kafka_2.11-0.10.2.1.tgz -C /usr/local && cd   /usr/local
ln -sv kafka_2.11-0.10.2.1.tgz kafka

修改kafka啓動內存

vim /usr/local/kafka/bin/kafka-server-start.sh
  export KAFKA_HEAP_OPTS="-Xmx2G -Xms2G"

kafka啓動和停止

/usr/local/kafka/bin/zookeeper-server-start.sh -deamon /usr/local/kafka/conf/zookeeper.properties

/usr/local/kafka/bin/kafka-server-start.sh -deamon /usr/local/kafka/conf/server.properties

/usr/local/kafka/bin/kafka-server-stop.sh /usr/local/kafka/conf/server.properties
/usr/local/kafka/bin/zookeeper-server-stop.sh /usr/local/kafka/conf/zookeeper.properties

單獨安裝kafka的啓停方式

/usr/local/zookeeper/bin/zkServer.sh stop|stop

2、 kafka 設置外網訪問(如有需要提供外網訪問)

前提條件

需要一個解析到內網ip地址的域名,內網環境也可以設置/etc/hosts

參數設置

host.name=kafka.test.com(對應的域名解析需要解到內網ip)
高版本已棄用。低版本0.10.2.1可以用, 僅當listeners屬性未配置時被使用,已用listeners屬性代替。表示broker的hostname

advertised.listeners=PLAINTEXT://kafka.test.com:9092(高版本用,替代host.name,設置了advertised.listeners不用設置host.name)
註冊到zookeeper上並提供給客戶端的監聽器,如果沒有配置則使用listeners。

advertised.host.name(不需要設置,僅作參考)
已棄用。僅當advertised.listeners或者listeners屬性未配置時被使用。官網建議使用advertised.listeners

listeners(不需要設置,僅作參考)
需要監聽的URL和協議,如:PLAINTEXT://myhost:9092,SSL://:9091 CLIENT://0.0.0.0:9092,REPLICATION://localhost:9093。如果未指定該配置,則使用java.net.InetAddress.getCanonicalHostName()函數的的返回值

修改上broker的/etc/hosts文件

[內網ip] kafka.test.com

修改外網訪問服務器上的/etc/hosts文件

[外網ip] kafka.test.com

3、kafka消費調試

生產者

/usr/local/kafka/bin/kafka-console-producer.sh --broker-list IP:9092 --topic TOPIC

消費者

/usr/local/kafka/bin/kafka-console-consumer.sh --bootstrap-server IP:9092 --topic TOPIC--from-beginning --max-messages 1
/usr/local/kafka/bin/kafka-console-consumer.sh --bootstrap-server 外網IP:9092 --topic TOPIC --from-beginning --max-messages 1

4、logstash調試

output {
  stdout { codec => rubydebug { metadata => true }  }
}

5、logstash無法消費kakfa日誌的問題排查

a、topics_pattern 通配問題".* ","."一定不能少

      topics_pattern=>"prefix-.*" 

b、filter中匹配規則,注意要能匹配到kafka中topic,不同的filebeat和不同的logstash版本對應的topic元數據可能不太一樣,這點需要注意

      if [type] =~ "prefix-*" {
          grok { match =>["[type]","^prefix-(?<index_name>)"] }
       }

      if [kafka][topic] =~ "prefix-*" {
        grok { match => [ "[kafka][topic]", "^prefix-(?<index_name>.*$)" ]}
      }

       if [@metadata][topic] =~ "prefix-*" {
          grok { match =>["[@metadata][topic]","^prefix-(?<index_name>)"] }
       }

      if [@metadata][kafka][topic] =~ "prefix-*" {
        grok { match => [ "[@metadata][kafka][topic]", "^prefix-(?<index_name>.*$)" ]}
      }

外網kakfa消費參考:https://www.maiyewang.com/archives/17993

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章