微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Nginx怎么整合Kafka

这篇“Nginx怎么整合Kafka”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“Nginx怎么整合Kafka”文章吧。

背景

Nginx-kafka-module是Nginx一个插件,可以将kafka整合到Nginx中,便于web项目中前端页面埋点数据的收集,如前端页面设置了埋点,即可将用户的一些访问和请求数据通过http请求直接发送到消息中间件kafka中,后端可以通过程序消费kafka中的消息来进行实时的计算。比如通过sparkstream来实时的消费kafka中的数据来分析用户pv,uv、用户的一些行为及页面的漏斗模型转化率,来更好的对系统进行优化或者对来访用户进行实时动态的分析。

具体整合步骤

1.安装git

yum install -y git

2.切换到/usr/local/src目录,然后将kafka的c客户端源码clone到本地

cd /usr/local/src
git clone https://github.com/edenhill/librdkafka

3.进入到librdkafka,然后进行编译

cd librdkafka
yum install -y gcc gcc-c++ pcre-devel zlib-devel
./configure
make && make install

4.安装Nginx整合kafka的插件,进入到/usr/local/src,clone Nginx整合kafka的源码

cd /usr/local/src
git clone https://github.com/brg-liuwei/ngx_kafka_module

5.进入到Nginx的源码包目录下 (编译Nginx,然后将将插件同时编译)

cd /usr/local/src/Nginx-1.12.2
./configure --add-module=/usr/local/src/ngx_kafka_module/
make && make install

6.修改Nginx配置文件:设置一个location和kafaka的topic

#添加配置(2处)
kafka;
kafka_broker_list f1:9092 f2:9092 f3:9092;

location = /kafka/access {
kafka_topic access888;
}

如下图:

Nginx怎么整合Kafka

Nginx怎么整合Kafka

7.启动zk和kafka集群(创建topic)

zkserver.sh start
kafka-server-start.sh -daemon config/server.properties

8.启动Nginx,报错,找不到kafka.so.1的文件

error while loading shared libraries: librdkafka.so.1: cannot open shared object file: no such file or directory

9.加载so库

#开机加载/usr/local/lib下面的库
echo "/usr/local/lib" >> /etc/ld.so.conf
#手动加载
ldconfig

10.测试,向Nginx中写入数据,然后观察kafka的消费者能不能消费到数据

curl http://localhost/kafka/access -d "message send to kafka topic"
curl http://localhost/kafka/access -d "小伟666"测试

也可以模拟页面埋点请求接口来发送信息:

Nginx怎么整合Kafka

后台kafka消费信息如图:

Nginx怎么整合Kafka

以上就是关于“Nginx怎么整合Kafka”这篇文章内容,相信大家都有了一定的了解,希望小编分享内容对大家有帮助,若想了解更多相关的知识内容,请关注编程之家行业资讯频道。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐