成都创新互联网站制作重庆分公司

SPARKstandlone安装配置

集群一共有3台机器,集群使用hadoop用户运行,3台机器如下:

创新互联建站提供成都网站设计、做网站、成都外贸网站建设公司、网页设计,品牌网站设计一元广告等致力于企业网站建设与公司网站制作,十年的网站开发和建站经验,助力企业信息化建设,成功案例突破千余家,是您实现网站建设的好选择.

1DEV-HADOOP-01192.168.9.110
2DEV-HADOOP-02192.168.9.111
3DEV-HADOOP-03192.168.9.112

  1. 配置集群间hadoop用户的无密码登录

  2. 配置每台机器的/etc/hosts

  3. 安装JDK1.8.0_60

  4. 安装scala

    1. 下载scala-2.11.7.tar

    2. 把scala-2.11.7.tar解压到/data/server目录

    3. 设置环境变量 /etc/profile

      1. export SCALA_HOME=/usr/scala/scala-2.11.7

      2. 使配置生效 source /etc/profile

  5. 安装spark

    1. 下载spark-1.5.0.tar

    2. 把spark-1.5.0.tar解压到/data/server目录

    3. 配置环境变量 /etc/profile

      1. export SPARK_HOME=/data/server/spark-1.5.0-bin-hadoop2.6

      2. export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

      3. 使配置生效 source /etc/profile

    4. 修改spark配置文件

      1. spark-env.sh配置文件

        1. export SCALA_HOME=/data/server/scala-2.11.7

        2. export JAVA_HOME=/usr/java/jdk1.8.0_60/

        3. export SPARK_MASTER_IP=DEV-HADOOP-01

        4. export SPARK_WORKER_MEMORY=2048m

      2. slaves配置文件

        1. DEV-HADOOP-02

        2. DEV-HADOOP-03

  6. 启动spark集群

    1. sbin/start-all.sh

  7. 集群启动验证

    1. 执行jps命令,master节点可以看到Master进程,slave可以看到Worker进程

  8. 查看Spark UI

    1. http://192.168.9.110:8080/

  9. 关闭集群

    1. sbin/stop-all.sh 


当前文章:SPARKstandlone安装配置
网页网址:http://cxhlcq.com/article/jedcsj.html

其他资讯

在线咨询

微信咨询

电话咨询

028-86922220(工作日)

18980820575(7×24)

提交需求

返回顶部