还是在之前的Hadoop集群环境上继续搭建Spark-1.6.1环境

下载安装

下载Spark并解压

wget http://mirrors.cnnic.cn/apache/spark/spark-1.6.1/spark-1.6.1-bin-hadoop2.6.tgz
tar -xvzf spark-1.6.1-bin-hadoop2.6.tgz -C /home/dps-hadoop/

改个舒服的名字

mv spark-1.6.1-bin-hadoop2.6/ spark-1.6.1

配置环境变量

同样,修改.bashrc文件

vim ~/.bashrc

添加内容

export SPARK_HOME=$HOME/spark-1.6.1
export PATH=$PATH:$HOME/bin:$HIVE_HOME/bin:$SPARK_HOME/bin

立即生效

source ~/.bashrc

配置Spark

拷贝一份配置文件模版

cp conf/slaves.template conf/slaves

修改slaves内容如下

master
slave15
slave16

其余走默认(这点来看,Spark真的很方便),将安装包拷贝到集群的其他节点。

scp -r spark-1.6.1/ slave15:~/
scp -r spark-1.6.1/ slave16:~/

启动集群

启动主节点

sbin/start-master.sh

启动从节点

sbin/start-slaves.sh

通过 Web UI查看,一切ok