使用IDEA运行spark程序,除了需要导入spark的一些依赖包之外,还需要注意的是
当启动spark报找不到可执行的hadoop winutils.exe
可已下载相应版本的winutils.exe到hadoop\bin 地址: https://github.com/4ttty/winutils
并配置环境变量classpath:%HADOOP_HOME%\bin\winutils.exe,确保已经配置HADOOP_HOME
要求本机安装hadoop的环境,并且要求两个配置文件:
windows本地运行mr程序时(不提交到yarn,运行在jvm靠线程执行),
hadoop.dll防止报nativeio异常、winutils.exe没有的话报空指针异常。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。