当前位置:首页 - Spark

spark单机模式安装部署配置教程

作者:高景洋 日期:2020-10-23 12:15:58 浏览次数:2170

一、安装Spark 的前置条件

1、Java Jdk 安装

2、Hadoop 安装

安装方式,见:mac OS hadoop伪分布安装教程


二、安装scala

1、执行命令:brew install scala,执行完成即可完成 scala 的安装


三、Spark 下载

下载地址:http://spark.apache.org/downloads.html

我们选择版本:spark-3.0.1-bin-hadoop3.2,因为安装的hadoop 版本为 3.2.1


四、安装Spark

1、解压 tar -zxvf spark-3.0.1-bin-hadoop3.2.tgz

2、将目录移到 /usr/local/spark3.0.1 目录下 

     执行命令 sudo mv /Users/jasongao/Documents/soft/spark-3.0.1-bin-hadoop3.2 /usr/local/spark3.0.1


五、环境变量配置

export SCALA_HOME=/usr/local/Cellar/scala/2.13.1
export PATH=$PATH:$SCALA_HOME/bin
export SPARK_HOME=/usr/local/spark3.0.1
export PATH=$PATH:$SPARK_HOME/bin

.zshrc  .bash_profile 两个文件最好都添加一下,mac OS 10.15 以后的版本,有的会切换成 .zshrc 文件


六、启动Spark

1、进入  /usr/local/spark3.0.1/sbin ,执行命令

2、执行 ./start-all.sh,可以在local.out文件下查看相关的启动情况

3、进入/usr/local/spark3.0.1/bin,执行 spark-shell ,即可启动Spark控制台界面



本文永久性链接:
<a href="http://r4.com.cn/art147.aspx">spark单机模式安装部署配置教程</a>
当前header:Host: r4.com.cn X-Host1: r4.com.cn X-Host2: r4.com.cn X-Host3: 127.0.0.1:8080 X-Forwarded-For: 3.22.130.105 X-Real-Ip: 3.22.130.105 X-Domain: r4.com.cn X-Request: GET /art147.aspx HTTP/1.1 X-Request-Uri: /art147.aspx Connection: close Accept: */* User-Agent: Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com) Accept-Encoding: gzip, br, zstd, deflate