Nginx怎么整合Kafka
时间:2023-05-22 00:38
背景 nginx-kafka-module是nginx的一个插件,可以将kafka整合到nginx中,便于web项目中前端页面埋点数据的收集,如前端页面设置了埋点,即可将用户的一些访问和请求数据通过http请求直接发送到消息中间件kafka中,后端可以通过程序消费kafka中的消息来进行实时的计算。比如通过sparkstream来实时的消费kafka中的数据来分析用户pv,uv、用户的一些行为及页面的漏斗模型转化率,来更好的对系统进行优化或者对来访用户进行实时动态的分析。 具体整合步骤 1.安装git 2.切换到/usr/local/src目录,然后将kafka的c客户端源码clone到本地 3.进入到librdkafka,然后进行编译 4.安装nginx整合kafka的插件,进入到/usr/local/src,clone nginx整合kafka的源码 5.进入到nginx的源码包目录下 (编译nginx,然后将将插件同时编译) 6.修改nginx的配置文件:设置一个location和kafaka的topic 如下图: 7.启动zk和kafka集群(创建topic) 8.启动nginx,报错,找不到kafka.so.1的文件 error while loading shared libraries: librdkafka.so.1: cannot open shared object file: no such file or directory 9.加载so库 10.测试,向nginx中写入数据,然后观察kafka的消费者能不能消费到数据 也可以模拟页面埋点请求接口来发送信息: 后台kafka消费信息如图: 以上就是Nginx怎么整合Kafka的详细内容,更多请关注Gxl网其它相关文章!yum install -y git
cd /usr/local/srcgit clone https://github.com/edenhill/librdkafka
cd librdkafkayum install -y gcc gcc-c++ pcre-devel zlib-devel./configuremake && make install
cd /usr/local/srcgit clone https://github.com/brg-liuwei/ngx_kafka_module
cd /usr/local/src/nginx-1.12.2./configure --add-module=/usr/local/src/ngx_kafka_module/make && make install
#添加配置(2处)kafka;kafka_broker_list f1:9092 f2:9092 f3:9092;location = /kafka/access {kafka_topic access888;}
zkserver.sh startkafka-server-start.sh -daemon config/server.properties
#开机加载/usr/local/lib下面的库echo "/usr/local/lib" >> /etc/ld.so.conf#手动加载ldconfig
curl http://localhost/kafka/access -d "message send to kafka topic"curl http://localhost/kafka/access -d "小伟666"测试