我可以为两个不同的 Nifi 集群使用相同的 flow.xml.gz 吗?

如何解决我可以为两个不同的 Nifi 集群使用相同的 flow.xml.gz 吗?

我们有一个 13 节点的 nifi 集群,大约有 5 万个处理器。 flow.xml.gz 的大小约为 300MB。调起13个节点的Nifi集群,通常需要8-10个小时。最近我们将集群拆分为两部分,5nodes 集群和 8nodes 集群,两者都具有相同的 300MB flow.xml.gz。从那以后,我们无法在两个集群中都安装 Nifi。此外,我们没有看到与此问题相关的任何有效日志。是否可以使用相同的 flow.xml.gz 。在拆分 Nifi 集群时,我们可能缺少哪些最佳实践。

解决方法

您提出了许多问题,这些问题都归结为“如何使用非常大的 flow.xml.gz 提高我们的 NiFi 集群的性能”。 如果没有关于您的集群及其中的流程的更多详细信息,我无法给出明确或保证可行的答案,但我可以指出一些步骤。

如果不拆分流,拆分集群是没有用的。

是的,您会在一定程度上减少集群通信开销,但您可能有许多设置为“仅限主节点”的输入处理器。如果您在两个集群上加载相同的 flow.xml.gz,两个集群都会有一个主节点执行这些,从而导致争用问题。

更重要的是,由于每个节点仍加载所有 flow.xml.gz(可能解压缩为 4 Gb),您没有任何其他性能优势,并且在启动时验证流中的 50k 处理器仍然需要很长时间。

如何拆分集群

以您所做的方式拆分集群可能会留下对现在位于另一个集群中的节点的引用,例如在本地状态目录中。对于 NiFi 集群,这可能会导致选择新的集群协调器和主节点时出现问题,因为无法达到法定人数。

首先从集群 GUI 中断开、卸载和删除这些节点会更清晰,以便删除这些引用。然后可以将这些节点配置为具有空流的新集群。即使您稍后再次使用旧流程,也请使用空流程对其进行测试以使其更快。

由于您已经拆分了集群,我会尝试启动 8 成员集群中的一个节点,看看您是否可以访问集群菜单来删除拆分的节点(断开连接和卸载可能不再起作用)。然后对于集群的其他 7 个成员,删除 flow.xml.gz 并启动它们。他们应该从正在运行的节点复制流。您应该调整 nifi.properties (nifi.cluster.flow.election.max.candidates) 中预期的候选人数,使其不大于节点数,以稍微加快此过程。

如果成功,则 300 MB 的流在 8 成员集群上运行,而在新的 5 成员集群上有一个空流。 将新集群连接到您的开发管道(NiFi 注册表、模板或其他)。然后,您可以停止 8 成员集群上的进程组,将它们导入到新集群上,并在验证流在新集群上运行后,从旧集群中删除进程组,慢慢缩小它。

如果您没有管道或者重新创建所有控制器和参数上下文的工作量太大,您可以将 flow.xml.gz 的副本复制到一个新节点,仅启动该节点并删除所有您不需要的内容不需要。只有在此之后,您才应该再次启动其他(使用它们的空 flow.xml.gz)。

要获得更多专家建议,您还应该尝试使用 Apache NiFi 用户电子邮件列表。如果您在问题中提供了足够多的相关详细信息,那么那里的某个人可能知道您的集群出了什么问题。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams['font.sans-serif'] = ['SimHei'] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -> systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping("/hires") public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate<String
使用vite构建项目报错 C:\Users\ychen\work>npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-
参考1 参考2 解决方案 # 点击安装源 协议选择 http:// 路径填写 mirrors.aliyun.com/centos/8.3.2011/BaseOS/x86_64/os URL类型 软件库URL 其他路径 # 版本 7 mirrors.aliyun.com/centos/7/os/x86
报错1 [root@slave1 data_mocker]# kafka-console-consumer.sh --bootstrap-server slave1:9092 --topic topic_db [2023-12-19 18:31:12,770] WARN [Consumer clie
错误1 # 重写数据 hive (edu)> insert overwrite table dwd_trade_cart_add_inc > select data.id, > data.user_id, > data.course_id, > date_format(
错误1 hive (edu)> insert into huanhuan values(1,'haoge'); Query ID = root_20240110071417_fe1517ad-3607-41f4-bdcf-d00b98ac443e Total jobs = 1
报错1:执行到如下就不执行了,没有显示Successfully registered new MBean. [root@slave1 bin]# /usr/local/software/flume-1.9.0/bin/flume-ng agent -n a1 -c /usr/local/softwa
虚拟及没有启动任何服务器查看jps会显示jps,如果没有显示任何东西 [root@slave2 ~]# jps 9647 Jps 解决方案 # 进入/tmp查看 [root@slave1 dfs]# cd /tmp [root@slave1 tmp]# ll 总用量 48 drwxr-xr-x. 2
报错1 hive> show databases; OK Failed with exception java.io.IOException:java.lang.RuntimeException: Error in configuring object Time taken: 0.474 se
报错1 [root@localhost ~]# vim -bash: vim: 未找到命令 安装vim yum -y install vim* # 查看是否安装成功 [root@hadoop01 hadoop]# rpm -qa |grep vim vim-X11-7.4.629-8.el7_9.x
修改hadoop配置 vi /usr/local/software/hadoop-2.9.2/etc/hadoop/yarn-site.xml # 添加如下 <configuration> <property> <name>yarn.nodemanager.res