Mac下安装Spark开发环境(Linux系统可参照)

    xiaoxiao2023-03-24  4

    Mac下安装Spark开发环境(Linux系统可参照) 

    标签: sparklinuxmacspark安装   1821人阅读  评论(0)  收藏  举报   分类: Spark(2) 

    目录(?)[+]

    之前一直使用VNC在远程集群上进行Spark程序开发,但是网络的不稳定以及集群时常升级让人头疼。在这里我在自己的Mac上

    搭建单机Spark开发环境,作为学习开发已经足够。Linux系统用户也可以参考。

    一、本机环境

    Macbook pro retina with 8G memory

    二、准备工作

    JDK 1.6.05

    Scala 11.4

    在Spark下载界面下载Spark 1.2.0。我在Mac上并没有使用hdfs(可根据个人需求选择性安装),选择Hadoop1.X版本,最后点

    击第4项的spark-1.2.0-bin- hadoop1.tgz直接下载即可。

    三、配置环境

    首先解压Spark压缩包:

    tar -zxvf spark-1.2.0-bin-hadoop1.tgz

    然后进行系统变量配置:

    sudo vim /etc/profile

    配置环境变量如下:

    配置好之后进入解压后的Spark目录下的conf目录,执行如下命令

    cp spark-env.sh.template spark-env.sh

    修改spark-env.sh中的内容,加入如下配置:

    export SCALA_HOME=/usr/local/scala

    export SPARK_MASTER_IP=localhost

    export SPARK_WORKER_MEMORY=4g

    进行本机SSH配置,在主目录下输入如下命令:

    ssh-keygen –t rsa –P ''

    然后一直按回车直到结束,接着输入命令:

    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

    最后需要做的一件事是在System Preferences->Sharing中选中Remote Login选项(对于Linux系统可以忽略此步骤直接看第四步)

    此时可以使用ssh locahost命令测试SSH免密码通讯是否配置成功。

    四、运行Spark

    1.启动Spark

    首先进入Spark目录中的sbin子目录运行如下脚本启动Spark:

    ./start-all.sh

    输入 jps 命令查看Spark是否运行:

    可以看到Master 和 Worker进城都已经启动

    2.使用spark shell 进行测试

    进去Spark目录下的bin子目录运行如下脚本启动Spark shell:

    spark-shell

    当看到如下界面的时候你已经成功了:

    恭喜你,继续享受Spark吧。

    转载请注明原文地址: https://ju.6miu.com/read-1201266.html
    最新回复(0)