hvordan til at fælde apache hadoop på centos

, apache hadoop, software - biblioteket er en ramme, der giver mulighed for distribueret databehandling af store datasæt på tværs af klynger af computere med simple programmering modeller   apacherne ™ hadoop ® projektet udvikler open source software til pålidelige, skalerbare, distribueret databehandling. projektet omfatter disse moduler:,,, hadoop fælles: den fælles forsyningsvirksomheder, som støtter den anden hadoop moduler.,, hadoop udsendt fil system (hdfs ™): et distribueret fil system, der giver adgang til ansøgningen, high - throughput.,, hadoop garn: rammer for job, tidsplanlægning og klynge ressourceforvaltning.,, hadoop mapreduce,: garn baseret system til parallel behandling af store datasæt, vil denne artikel.hjælpe dig til skridt for skridt installere og konfigurere enkelt knudepunkt hadoop klynge af hadoop på centos., installere java, før at sikre, at du har hadoop java installeret i dit system.denne kommando til at kontrollere den version af den installerede java., java - version java udgave "1.7.0_75" java (tm) se runtime miljø (bygge 1.7.0_75-b13) java hotspot (tm) 64 - bit - vm (bygge 24.75-b04, blandet mode), for at installere eller ajourføre java   anvendelse efter instruktioner trin for trin. det første skridt er at downloade seneste version af java fra   oracle officielle websted, cd - /opt - out - /wget... ingen småkager... ingen check certifikat - header "cookie: gpw_e24 = http% 3a% 2f% 2fwww. orakel. com% 2f, oraclelicense = acceptere securebackup cookie" http://download.oracle.com/otn-pub/java/jdk/7u79-b15/jdk-7u79-linux-x64.tar.gz "tjære xzf jdk-7u79-linux-x64. tjære. gz, skal oprettes til at bruge nyere version af java anvende alternativer.der anvendes følgende ordrer til at gøre det, cd /opt - out - /jdk1.7.0_79/alternativer - installere /bar /bin /java java - /opt - out - /jdk1.7.0_79/bin/java 2 alternativer - ud java, er der tre programmer, som giver "java".udvælgelse kommando ----------------------------------------------- * 1 /opt - out - /jdk1.7.0_60/bin/java + 2 - /opt - out - /jdk1.7.0_72/bin/java 3 /opt - out - /jdk1.7.0_79/bin/java ind for at holde den nuværende udvælgelse (+) eller type valg nummer: 3 [tryk enter], nu må du også forpligtet til at oprette javac og jar kommandoer vej ved hjælp af alternativer, alternativer - installere kommando. /bar /bin /jar jar /opt - out - /jdk1.7.0_79/bin/jar 2 alternativer - installere /bar /bin /javac javac /opt - out - /jdk1.7.0_79/bin/javac 2 alternativer - sæt jar /opt - out - /jdk1.7.0_79/bin/jar alternativer - sæt javac /opt - out - /jdk1.7.0_79 /bin /javac, det næste skridt er at få   miljø variabler.   anvendelse efter ordre til at sætte disse variable ordentligt, fælde, java_home, variaog,,, eksport java_home = /opt - out - /jdk1.7.0_79, fælde, jre_home, variable,,, eksport jre_home = /opt - out - /jdk1.7.0_79/jre, fælde, vej, variable,,, eksport sti = $vej: /opt - out - /jdk1.7.0_79 /bin - /opt - out - /jdk1.7.0_79 /indtil /bin,, at hadoop, apache, efter at oprette java -   miljø.lad med at installere  , apache hadoop.,, er det første skridt til at oprette et system til   bruger til brug for hadoop anlæg. useradd hadoop passwd hadoop, nu skal du få ssh - nøgler   for brugeren hadoop.   ved hjælp af følgende kommando at stille ind uden kodeordet, su - hadoop ssh keygen. - t rsa kat - /. ssh /id_rsa.pub > > - /. ssh /authorized_keys chmod 0600 - /. ssh /authorized_keys exit, nu   downloade hadoop nyeste udgave fra sit officielle websted   hadoop. apache. org., cd - wget http://apache.claz.org/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz tjære xzf hadoop-2.6.0.tar.gz mv hadoop-2.6.0 hadoop, nu næste skridt er at   fastsat miljø variable brug af hadoop., redigere - /. bashrc, fil og tilføje   efter listes af   values ved udgangen af fil., eksport hadoop_home = /home /hadoop /hadoop eksport hadoop_install = $hadoop_home eksport hadoop_mapred_home = $hadoop_home eksport hadoop_common_home = $hadoop_home eksport hadoop_hdfs_home = $hadoop_home eksport yarn_home = $hadoop_home eksport hadoop_common_lib_native_dir = $hadoop_home /l /lokalt eksport sti = $vej: $hadoop_home /sbin: $hadoop_home /bin, så   anvender de ændringer i de nuværende løbende miljø, kilde - /. bashrc, redigere, $hadoop_home /etc /hadoop /hadoop-env.sh, fil og, java_home, miljø, variable, eksport java_home = /opt - out - /jdk1.7.0_79 /, nu starter du   med konfigurationen med grundlæggende hadoop eneste node klynge fælde., edit hadoop konfiguration, filer og gøre følgende ændringer, cd /home /hadoop /hadoop /etc /hadoop, lad .217;s start by editing core-site.xml,<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration> ,Then Edit hdfs-site.xml:,<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>file:///home/hadoop/hadoopdata/hdfs/namenode</value> </property> <property> <name>dfs.data.dir</name> <value>file:///home/hadoop/hadoopdata/hdfs/datanode</value> </property> </configuration> ,and edit mapred-site.xml:,<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ,finally edit yarn-site.xml:,<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>,Now format the namenode using following command:,hdfs namenode -format,To start all hadoop services use the following command:,cd /home/hadoop/hadoop/sbin/ start-dfs.sh start-yarn.sh,To check if all services are started well use ‘jps‘ command:,jps,You should see like this output.,26049 SecondaryNameNode 25929 DataNode 26399 Jps 26129 JobTracker 26249 TaskTracker 25807 NameNode,No- du kan få adgang til   hadoop tjenester i deres browser på: http: //din ip - adresse: 8088 /.,,,, tak!!!,

hadoop



Previous:
Next Page: