如何解决Spark 与 AWS Elastic Search 集成 - 获取 - 云实例没有正确设置“es.nodes.wan.only”错误
创建具有公共访问权限的 AWS Elastic 搜索并尝试将数据帧从我的本地推送到 ES,我遇到了以下异常
Exception in thread "main" org.elasticsearch.hadoop.EsHadoopIllegalArgumentException: Cannot detect ES version - typically this happens if the network/Elasticsearch cluster is not accessible or when targeting a WAN/Cloud instance without the proper setting 'es.nodes.wan.only'
我在 EMR 中尝试过的相同工作流程并得到相同的异常。阻塞的原因是什么?任何的想法 注意:在maven中配置正确的ES实例jar,下面是我的参考代码
userDF.write.format("org.elasticsearch.spark.sql")
.option("es.mapping.id","id")
.option("spark.es.index.auto.create","true")
.option("spark.es.nodes","https://emrtoser-searchdomain-7uertdoiicyf42hw3rtyhqc7y.us-east-1.es.amazonaws.com")
.option("spark.es.batch.size.entries","1000")
.option("spark.es.net.http.auth.user","xxxx")
.option("spark.es.net.http.auth.pass","XXXxxx123#")
.mode(SaveMode.Overwrite)
.save("user/data")
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。