centos部署单机spark大数据环境(一)--【安装spark】

前端之家收集整理的这篇文章主要介绍了centos部署单机spark大数据环境(一)--【安装spark】前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

1、上传scala和spark架包

scala官网下载:https://www.scala-lang.org/download/

spark官网下载:http://spark.apache.org/downloads.html

2、解压包,重命名

#scala
tar -zxf scala-2.12.7.tgz
mv scala-2.12.7 scala

#spark
tar -zxf spark-2.3.2-bin-hadoop2.7.tgz 
mv spark-2.3.2-bin-hadoop2.7 spark

3、配置scala 和spark的环境变量

vi /etc/profile
#shift+g 快速定位到最后一行
#scala
export SCALA_HOME=/home/scala
export PATH=${SCALA_HOME}/bin:$PATH
#spark
export SPARK_HOME=/home/spark/
export PATH=${SPARK_HOME}/bin:$PATH

4、加载环境变量

source /etc/profile

5、 cd 到spark 的conf里面拷贝文件

cp spark-env.sh.template spark-env.sh
cp slaves.template slaves

6、加入配置

vi slaves
加入localhost或者服务器IP
vi spark-env.sh

#java
export JAVA_HOME=/home/jdk

#scala
export SCALA_HOME=/home/scala

#Spark主节点的IP
export SPARK_MASTER_IP=服务器IP

#Spark主节点的端口号
export SPARK_MASTER_PORT=7077

7、关闭防火墙

[[email protected] ]# systemctl stop firewalld.service //关闭防火墙服务
[[email protected] ]# systemctl disable firewalld.service //禁止防火墙服务开机启动

8、进入spark/sbin目录启动spark

cd /home/spark/sbin
./start-all.sh

9、然后再浏览器上输入:  你spark安装的IP:8080,出现如下效果,则安装成功

分享图片

猜你在找的CentOS相关文章