linux系统shell循环

拷贝grub文件到其他节点机,执行跟新grub

1.创建shell脚本bat.sh内容如下:

#!/bin/bash

for((i=1;i<3;i++))

{

      scp /etc/default/grub root@c$i:/etc/default/

       ssh -t c$i sudo update-grub

}

2.赋予执行的权限

chmod a+x bat.sh

3.执行

./bat.sh

4.修改副本数量(默认3个)和块大小(默认128m)

a.找出所有配置元素

hadoop-common-2.7.1.jar/core-default.xml

hadoop-hdfs-2.7.1.jar/hdfs-default.xml

hadoop-mapreduce-client-core-2.7.1.jar/mapred-default.xml

hadoop-yarn-common-2.7.1.jar/yarn-default.xml

b.core-site.xml

   hdfs-site.xml

   yarn-site.xml

   mapred-site.xml

修改hdfs-site.xml

加入:<property>

           <name>dfs.replication</name>

            <value>2</value>

           </property>

修改备份数据为2份

加入:<property>

                        <name>dfs.blocksize</name>

                         <value>20k</value>

          </property>

修改块大小为20k

发送hdfs-site.xml到所有节点:

for((i = 1;i< 3;i++))

{

scp $HADOOP_INSTALL/etc/hadoop/hdfs-site.xml ubuntu@c$i:$HADOOP_INSTALL/etc/hadoop/

}

重启集群

删除所有节点的临时目录:

for((i = 1;i< 3;i++))

{

ssh c$i rm -fR /tmp/hadoop-ubuntu

}

格式化文件系统:

hadoop namenode -format

启动集群start-dfs.sh

              start-yarn.sh

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容