Hadoop偽分布式模型

# java -version
# vim /etc/profile.d/java.sh
  export JAVA_HOME=/usr
# yum install java-1.8.0-openjdk-devel
# mkdir /bdapps
# tar xf hadoop-2.7.4.tar.gz -C /bdapps/
# cd /bdapps
# ln -sv hadoop-2.7.4 hadoop
# cd hadoop/
# vim /etc/profile.d/hadoop.sh                 編輯環境配置文件
     export HADOOP_PREFIX=/bdapps/hadoop
     export PATH=$PATH:${HADOOP_PREFIX}/bin:${HADOOP_PREFIX}/sbin
     export HADOOP_YARN_HOME=${HADOOP_PREFIX}
     export HADOOP_MAPPERD_HOME=${HADOOP_PREFIX}
     export HADOOP_COMMON_HOME=${HADOOP_PREFIX}
     export HADOOP_HDFS_HOME=${HADOOP_PREFIX}
# ./etc/profile.d/hadoop.sh
# ls
    bin/     存放二進制程序文件
    include/     頭文件目錄
    lib/      庫文件目錄
    sbin/     腳本
    etc/hadoop    .sh格式文件是配置hadoop運行環境 .xml結尾的文件實配置文件
# groupadd hadoop                創建用戶和組
# useradd -g hadoop yarn 
# useradd -g hadoop hdfs
# useradd -g hadoop mapred

# mkdir -pv /data/hadoop/hdfs{nn,snn,dn}           創建數據庫
# chown -R hdfs:hadoop /data/hadoop/hdfs
# ll
# mkdir logs                  創建日志目錄
# chown -R yarn:hadoop logs
# chown -R yarn:hadoop ./*

配置hadoop
# cd etc/hadoop
# vim core-site.xml        包含了NameNode的一些信息
   <configuration>
        <property>
             <name>fs.defaultFS</name>          
             <value>hdfs://localhost:8020</value>     
             <final>true</final>
        </property>
   </configuration>

# vim hdfs-site.xml     配置HDFS相關的屬性
 <configuration>
 <property>
 <name>dfs.replication</name>
 <value>1<value>
 </propery>
 <property>
 <name>dfs.namenode.name.dir</name>
 <value>file:///data/hadoop/hdfs/nn</value>
 </propery>
 <property>
 <name>dfs.datanode.data.dir</name>
 <value>file:///data/hadoop/hdfs/dn</value>
 </propery>
 <property>
 <name>fs.checkpoint.dir</name>
 <value>file:///data/hadoop/hdfs/snn<value>
 </propery>
 <property>
 <name>fs.checkpoint.dir</name>
 <value>file:///data/hadoop/hdfs/snn<value>
 </propery>
 </configuration>

注意,如果需要其他用戶對hdfs有寫入權限,還需要添加
 <property>
     <name>dfs.premissions</name>       不做嚴格權限限制
     <value>false<value>
 </propery>

# cp mapred-site.xml.template mapred-site.xml
# vim mapred-site.xml    定義MapReduce
<configuration>
? <property>
??? <name>mapred.framwork.name</name>
??? <value>yarn</value>
? </property>
</configuration>

# vim yarn-site.xml
<configuration>
? <property>
??? <name>yarn.resourcemanager.address</name>
??? <value>localhost:8032</value>
? </property>
? <property>
??? <name>yarn.resourcemanager.scheduleraddress</name> #調度器地址
??? <value>localhost:8030</value>
? </property>?
? <property>
??? <name>yarn.resourcemanager.resource-tracker.address</name> #資源追蹤器地址
??? <value>localhost:8031</value>
? </property>
? <property>
??? <name>yarn.resourcemanager.admin.address</name> #管理地址
??? <value>localhost:8033</value>
? </property>
? <property>
??? <name>yarn.resourcemanager.webapp.address</name> 
??? <value>localhost:8088</value>
? </property>
? ??<property>
??? <name>yarn.nodemanager.aux-service</name> #輔助服務
??? <value>mapreduce_shuffle</value>
? </property> 
? <property>
??? <name>yarn.nodemanager.auxservice.mapreduce_shuffle.class</name> #shuffle類
??? <value>org.apache.hadoop.mapred.ShuffleHandler</value>
? </property>
? ??<property>
??? <name>yarn.resourcemanager.scheduler.class</name> 
??? <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value>
? </property> ?
</configuration>

格式化HDFS

以hadoop用戶運行如下命令

# su - hdfs
$ hadoop namenode -format

其中的“Storage directory /hadoop/temp/dfs/name has been successfully formatted”一行信息表明對應的存儲已經格式化成功。

啟動hadoop

$ hadoop-daemon.sh start namenode

$ jps ? ? ? ? ? ? ? ? ??查看正在運行的Hadoop進程

$ hadoop-daemon.sh start secondarynamenode   啟動輔助名稱節點
$ hadoop-daemon.sh start datanode    
$ hdfs dfs -ls /    查看目錄
$ hdfs dfs -mkdir /test
    drwxr-xr-x - hdfs supergroup             
$ hdfs -dfs -put /etc/fstab /test/fstab
$ hdfs dfs -lsR /   查看是否上傳成功
$ hdfs dfs -cat /test/fstab     (對應cat /data/hadoop/dfs/dn/current/...)
$ su -yarn
$ yarn-daemon.sh start resourcemanager
$ jps
$ yarn-daemon.sh start nodemanager

HDFS和YARN ResourceManager各自提供了一個Web接口,通過這些接口可檢查HDFS集群以及YARN集群的相關狀態信息

HDFS-NameNode ? ? http://<NameNodeHost>:50070

YARN-ResourceManager ? ? http://<ResourceManagerHost>:8088

運行測試程序

hadoop-YARN自帶了許多樣例程序,它們位于hadoop安裝路徑下/share/hadoop/mapreduce目錄中,其中hadoop-mapreduce-example可做mapreduce程序測試

# su - hdfs
$ yarn jar /bdapps/hadoop//share/hadoop/mapreduce/hadoop-mapreduce-example-2.7.4.jar


 

原創文章,作者:nene,如若轉載,請注明出處:http://www.www58058.com/89608

(0)
nenenene
上一篇 2017-12-08 15:49
下一篇 2017-12-08 21:53

相關推薦

  • 【超全整理】《Linux云計算從入門到精通》系列實戰筆記全放送

    ? ? ? 為了方便Linux云計算愛好者的學習查看,馬哥Linx云計算團隊特別整理了《Linux云計算從入門到精通》年度重磅大放送,囊括了整個學習過程的學習精華,內容全部由馬哥Linux云計算學員撰寫,歡迎大家支持!?。?? ? ? 詳情請看: ?一、Linux運維基礎實戰入門 從Linux0基礎入門開始,全面講解作為新手如何學習Linux,以及學習方法和…

    2017-09-14
  • 22期第十周課堂練習

    1、請詳細描述CentOS系統的啟動流程(詳細到每個過程系統做了哪些事情)     2、為運行于虛擬機上的CentOS 6添加一塊新硬件,提供兩個主分區;       (1) 為硬盤新建兩個主分區;并為其安裝grub;       (2) 為硬盤的第一個主分區提供內核和ramdi…

    Linux干貨 2016-10-24
  • iptables學習筆記   Netfilter:是Linux操作系統核心層內部的一個數據包處理模塊。   Hook point:數據包在Netfilter中的掛載點。(PRE_ROUTIN   ,INPUT,OUTPUT,FORWARD,POST_ROUTING)   iptables 規則組成:四張表+五條鏈(Ho…

    Linux干貨 2016-12-05
  • 計算機基礎知識及服務器介紹

    現代計算機組成 根據馮·諾依曼結構體系計算機有五大部件組成: 運算器、控制器、存儲器、輸入設備、輸出設備 CPU=運算器+控制器 運算器由算術邏輯單元(ALU)、累加器、狀態寄存器、通用寄存器組等組成。 算術邏輯運算單元(ALU)的基本功能為加、減、乘、除四則運算,與、或、非、異或等邏輯操作,以及移位、求補等操作。 運算器只能進行二進制運算、邏輯運算 控制器…

    Linux干貨 2016-06-09
  • Linux第四周總結

    1、復制/etc/skel目錄為/home/tuser1, 要求/home/tuser1及其內部文件的屬組和其它用戶均沒有任何訪問權限。 2、編輯/etc/group文件,添加組hadoop。 3、手動編輯/etc/passwd文件新增一行,添加用戶hadoop, 其基本組ID為hadoop組的id號;其家目錄為/home/hadoop。 4、復制/etc/…

    2017-07-24
  • linux軟件包管理

    linux軟件包管理 簡介     在Linux系統中,軟件包的安裝和管理是很重要的知識,而linux/unix一個麻煩的地方就是軟件安裝程序比較麻煩和復雜,尤其是當所安裝的軟件包要處理較多的包依賴關系,這就更讓人頭疼了,最常見linux軟件安裝方式有三種:     本文主要介紹Linux中RedHat或CentOS發…

    系統運維 2016-05-05
欧美性久久久久