apache-storm专题提供apache-storm的最新资讯内容,帮你更好的了解apache-storm。
我正在做一个具有深度学习的汽车股票交易系统项目 我有股票市场的API,想与Hadoop集群连接 可以将API与
我在HDP平台(2.6.5.225-4)上运行了Storm拓扑。 在我的群集上启用了Kerberos。 此拓扑以KafkaSpout开头,
Apache Spark是基于时间的窗口条件,而Flink是基于记录的窗口条件。 任何机构都可以详细解释什么是
我在Apache Storm 2.1.0中使用单个工作程序运行40个拓扑,其中包含2个主管节点和1个nimbus。一些拓扑运行数
我正在尝试使用以下命令运行本地集群: <pre><code>storm local target/myjar.jar com.app.MyMainClass </code></pre>
<em>背景很少</em>:我正在使用Apache Storm开发拓扑,我想为什么不在其中使用依赖项注入,但是我不确定
我将基于Storm Crawler项目开发一个工件。我想从Kafka主题中获取种子URL。 Kakfa中的每个消息都有两个重要
我有一个带有1个喷口和3个螺栓的拓扑,当前在本地模式下运行。 <pre><code>spout-&gt; Read from kafka bolt1-&g
我正在尝试使Apache Kafka-Storm Pipeline正常工作,但是由于我没有收到任何元组,所以我认为查看日志是个
我正在尝试在HiBench中运行Flink在该主题上工作正常,但是接收到的字节非常慢 13min只有259KB正常吗? <a hr
我的任务是处理进入ApacheMQ Artemis的大型xml文件(<700 MB)。 我需要的伪算法是 <pre><code>AnswerXml pr
我有一个Spring Framework配置文件 <pre class="lang-xml prettyprint-override"><code>Symbol</code></pre> 但是,当我在St
我已经开发了一个StormCrawler项目,该项目在该拓扑中具有多个其他Bolt。我的抓取工具应该可以7 X 24正常
我想访问数据库(从中选择一些数据),我习惯在Hibernate的帮助下进行操作。 我试图找到有关如何将Hibe
我有一个基于StormCrawler的项目,需要永久运行。但是我想通过Web应用程序运行多个爬网请求。 Web应用程
最近,我们将Storm版本从0.10升级到1.1.0,但是在使用已升级的客户端部署拓扑时,由于-而失败 <pre><cod
我们想将来自Kafka主题的种子URL馈送到基于StormCrawler的项目。 是否需要更换“风暴爬虫”?
我尝试使用以下命令在本地部署用2.2.0编写的strom拓扑: <code>./storm local ./sample.jar com.sample.processor.s
我目前正在从事基于Storm Crawler的项目。我们有固定数量的带宽来从Web上获取页面。我们有8个工作线程,
我有一个基于Apache Storm的项目,该项目从Kafka主题中给出其元组。在每条Kafka消息中,我都有一个从外部