成都创新互联网站制作重庆分公司

怎么用docker快速搭建Spark集群-创新互联

本篇内容介绍了“怎么用docker快速搭建Spark集群”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

创新互联是一家专业提供泰顺企业网站建设,专注与成都网站建设、做网站、H5建站、小程序制作等业务。10年已为泰顺众多企业、政府机构等服务。创新互联专业网站制作公司优惠进行中。

前言

Spark 是 Berkeley 开发的分布式计算的框架,相对于 Hadoop 来说,Spark 可以缓存中间结果到内存而提高某些需要迭代的计算场景的效率,目前收到广泛关注。下面来一起看看使用docker快速搭建Spark集群的方法教程。

适用人群

  • 正在使用spark的开发者

  • 正在学习docker或者spark的开发者

准备工作

  • 安装docker

  • (可选)下载java和spark with hadoop

Spark集群

Spark运行时架构图

怎么用docker快速搭建Spark集群

如上图: Spark集群由以下两个部分组成

  • 集群管理器(Mesos, Yarn或者standalone Mode)

  • 工作节点(worker)

如何docker化(本例使用Standalone模式)

1、将spark集群拆分

      base(基础镜像)

      master(主节点镜像)

      worker(工作镜像)

2、编写base Dockerfile

注: 为方便切换版本基础镜像选择的是centos, 所以要下载java和spark, 方便调试, 可以下载好安装文件后本地搭建一个静态文件服务器, 使用Node.js 的http-server可以快速搞定

命令如下

 npm install http-server -g
 http-server -p 54321 ~/Downloads

正式开始写Dockerfile

FROM centos:7
MAINTAINER RavenZZ 

# 安装系统工具
RUN yum update -y
RUN yum upgrade -y
RUN yum install -y byobu curl htop man unzip nano wget
RUN yum clean all

# 安装 Java
ENV JDK_VERSION 8u11
ENV JDK_BUILD_VERSION b12
# 如果网速快,可以直接从源站下载
#RUN curl -LO "http://download.oracle.com/otn-pub/java/jdk/$JDK_VERSION-$JDK_BUILD_VERSION/jdk-$JDK_VERSION-linux-x64.rpm" -H 'Cookie: oraclelicense=accept-securebackup-cookie' && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm;
RUN curl -LO "http://192.168.199.102:54321/jdk-8u11-linux-x64.rpm" && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm;
ENV JAVA_HOME /usr/java/default
RUN yum remove curl; yum clean all
WORKDIR spark

RUN \
 curl -LO 'http://192.168.199.102:54321/spark-2.1.0-bin-hadoop2.7.tgz' && \
 tar zxf spark-2.1.0-bin-hadoop2.7.tgz

RUN rm -rf spark-2.1.0-bin-hadoop2.7.tgz
RUN mv spark-2.1.0-bin-hadoop2.7/* ./

ENV SPARK_HOME /spark
ENV PATH /spark/bin:$PATH
ENV PATH /spark/sbin:$PATH

3、编写master Dockerfile

FROM ravenzz/spark-hadoop

MAINTAINER RavenZZ 

COPY master.sh /

ENV SPARK_MASTER_PORT 7077
ENV SPARK_MASTER_WEBUI_PORT 8080
ENV SPARK_MASTER_LOG /spark/logs

EXPOSE 8080 7077 6066

CMD ["/bin/bash","/master.sh"]

4、编写worker Dockerfile

 FROM ravenzz/spark-hadoop

 MAINTAINER RavenZZ  
 COPY worker.sh /

 ENV SPARK_WORKER_WEBUI_PORT 8081
 ENV SPARK_WORKER_LOG /spark/logs
 ENV SPARK_MASTER "spark://spark-master:32769"

 EXPOSE 8081

 CMD ["/bin/bash","/worker.sh"]

5、docker-compose

 version: '3'

services:
 spark-master:
 build:
 context: ./master
 dockerfile: Dockerfile
 ports:
 - "50001:6066"
 - "50002:7077" # SPARK_MASTER_PORT
 - "50003:8080" # SPARK_MASTER_WEBUI_PORT
 expose:
 - 7077

 spark-worker1:
 build:
 context: ./worker
 dockerfile: Dockerfile
 ports:
 - "50004:8081"
 links:
 - spark-master
 environment:
 - SPARK_MASTER=spark://spark-master:7077

 spark-worker2:
 build:
 context: ./worker
 dockerfile: Dockerfile
 ports:
 - "50005:8081"
 links:
 - spark-master
 environment:
 - SPARK_MASTER=spark://spark-master:7077

6、测试集群

docker-compose up

访问http://localhost:50003/ 结果如图

怎么用docker快速搭建Spark集群

“怎么用docker快速搭建Spark集群”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注创新互联成都网站设计公司网站,小编将为大家输出更多高质量的实用文章!

另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


新闻标题:怎么用docker快速搭建Spark集群-创新互联
URL网址:http://cxhlcq.com/article/ccipsp.html

其他资讯

在线咨询

微信咨询

电话咨询

028-86922220(工作日)

18980820575(7×24)

提交需求

返回顶部