微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

spark学习进度03入门案例、sparkshell本地文件读取,hdfs读取、本地运行、提交运行

一、编写spark代码的几种方式:

(主要看重的方面:1、观察数据集  2、编写代码测试数据集  3、固化代码、提交集群运行上线)

1、spark-shell

    (数据集的探索、测试)

Spark shell 简介
  • 启动 Spark shell
    进入 Spark 安装目录后执行 spark-shell --master master 就可以提交Spark 任务

  • Spark shell 的原理是把每一行 Scala 代码编译成类, 最终交由 Spark 执行

1.1读取本地文件

步骤一:

 

 步骤二:

 

 步骤三:

 

 注意事项:

 

 运行的结果如下:

 退出scala操作是:

 

 

 

 

 

1.2读取hdfs

删除当前文件夹中的文件

 

 hdfs上创建新的文件夹:

 

 将文件上传到hdfs:

 

 HDFS操作如下:

 

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐