集群启动

    xiaoxiao2021-03-25  141

    集群首次启动

    1、如果zookeeper集群还没有启动的话, 首先把各个zookeeper起来。 /usr/hadoop/zookeeper/bin/zkServer.sh start    (记住所有的zookeeper机器都要启动) /usr/hadoop/zookeeper/bin/zkServer.sh status (1个leader,n-1个follower) 输入jps,会显示启动进程:QuorumPeerMain

    2.、然后在主namenode节点执行如下命令,创建命名空间 /usr/hadoop/hadoop/bin/hdfs zkfc -formatZK  (复制命令,-会变成— 建议手敲) 验证成功 在zookeeper节点执行 /usr/hadoop/zookeeper/bin/zkCli.sh ls / ls /hadoop-ha  quit

    3、在每个节点用如下命令启日志程序 /usr/hadoop/hadoop/sbin/hadoop-daemon.sh start journalnode (每个journalnode节点都需要启动)

    4、在主namenode节点用./bin/hadoop namenode -format格式化namenode和journalnode目录 /usr/hadoop/hadoop/bin/hadoop namenode -format

    5、在主namenode节点启动namenode进程 /usr/hadoop/hadoop/sbin/hadoop-daemon.sh start namenode

    6、在备namenode节点执行第一行命令,把备namenode节点的目录格式化并把元数据从主namenode节点copy过来,并且这个命令不会把journalnode目录再格式化了!然后用第二个命令启动备namenode进程! scp -r slave146:/usr/hadoop/storage/hadoop/name /usr/hadoop/storage/hadoop /usr/hadoop/hadoop/sbin/hadoop-daemon.sh start namenode

    7、在两个namenode节点都执行以下命令 /usr/hadoop/hadoop/sbin/hadoop-daemon.sh start zkfc

    8、启动datanode 在主NameNode上执行如下命令一次性启动所有datanode /usr/hadoop/hadoop/sbin/hadoop-daemons.sh start datanode

    9. 启动Yarn和备ResourceManager 主NameNode节点上 /usr/hadoop/hadoop/sbin/start-yarn.sh 启动备节点 /usr/hadoop/hadoop/sbin/yarn-daemon.sh start resourcemanager

    10.启动hbase 从节点上 /usr/hadoop/hbase/bin/hbase-daemon.sh start regionserver 主节点和备用节点上 /usr/hadoop/hbase/bin/hbase-daemon.sh start master 验证安装成功 hbase shell list

    11.启动spark 在主节点上启动整个集群 ./sbin/start-all.sh 在备用节点上启动Standby ./sbin/start-master.sh 验证是否成功 jps

    集群正常启动

    1.首先把各个zookeeper起来并验证 /usr/hadoop/zookeeper/bin/zkServer.sh start    (记住所有的zookeeper机器都要启动) 验证是否成功 /usr/hadoop/zookeeper/bin/zkServer.sh status (1个leader,n-1个follower)

    2、在主namenode节点启动所有节点并验证 /usr/hadoop/hadoop/sbin/start-all.sh 验证是否成功 jps

    3、启动备节点ResourceManager并验证 /usr/hadoop/hadoop/sbin/yarn-daemon.sh start resourcemanager 验证是否成功 jps

    4、启动Hbase并验证 从节点上 /usr/hadoop/hbase/bin/hbase-daemon.sh start regionserver 主节点和备用节点上 /usr/hadoop/hbase/bin/hbase-daemon.sh start master 验证启动成功 hbase shell list

    6.启动Spark并验证 在主节点上启动整个集群 ./sbin/start-all.sh 在备用节点上启动Standby ./sbin/start-master.sh 验证是否成功 jps

    
    转载请注明原文地址: https://ju.6miu.com/read-11626.html

    最新回复(0)