基于Spark Streaming&Flume&Kafka打造通用流处理平台
- 整合日志输出到Flume
- 整合Flume到Kafka
- 整合Kafka到Spark Streaming
- Spark Streaming对接收到的数据进行处理
异常: java.lang.ClassNotFoundException: org.apache.flume.clients.log4jappender.Log4jAppender 在pox.xml中添加依赖:如下 G org.apache.flume.flume-ng-clients A flume-ng-log4jappender V 1.6.0
logger.info("current value is : " + index ++); logger.info("current : " + index ++);
上面的字符串,要短一点,不然,不能看到index的值
flume对接kafka
- 启动kafka后台服务
- 启动flume的kafka对应配置文件
- 启动kafka消费者
- 在IDEA中启动程序
- 在kafka中查看结果
步骤一步都不能错,尤其是1,2,3
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。