微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

寒假学习进度3

今天继续spark的学习,今天完成了Standalone 模式的配置和在windows上的运行

首先是Standalone 模式

更改spark目录下conf文件中的salves文件添加内容

 

 

 

 更改spark目录下conf文件中的spark-env文件添加内容

export JAVA_HOME=/opt/module/jdk1.8.0_144 SPARK_MASTER_HOST=hadoop102 SPARK_MASTER_PORT=8020   启动spark sbin/start - all.sh

 

 

查看是否启动

 

 测试

 

 

 

 

 

 windows环境下spark运行

解压spark,在bin目录下下启动

 

测试

 

 

 

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐