还剩2页未读,继续阅读
文本内容:
在这篇文章中,我们默认认为环境已经由运维人员配置好直接可以使用Hadoop假设的安装目录为Hadoop HADOOP_HOME/home/admin/hadoop启动与关闭启动Hadoop进入目录
1.HADOOP_HOME执行
2.sh bin/start-all.sh关闭Hadoop进入目录
1.HADOOP_HOME执行
2.sh bin/stop-all.sh文件操作使用的是能够实现的功能和我们使用的磁盘系统类似并且支持通配符,如*Hadoop HDFS,查看文件列表查看中目录下的文件hdfs/user/admin/aaron进入目录
1.HADOOP_HOME执彳亍
2.sh bin/hadoop fs-Is/user/admin/aaron这样,我们就找到了中目录下的文件了hdfs/user/admin/aaron我们也可以列出中目录下的所有文件(包括子目录下的文件)hdfs/user/admin/aaron进入目录
1.HADOOP_HOME执彳亍
2.sh bin/hadoop fs-Isr/user/admin/aaron创建文件目录查看中目录下再新建一个叫做的新目录hdfs/user/admin/aaron newDir进入目录
1.HADOOP_HOME执行
2.sh bin/hadoop fs-mkdir/user/admin/aaron/newDir删除文件删除中目录下一个名叫的文件hdfs/user/admin/aaron needDelete
1.进入HADOOP HOME目录执彳亍
2.sh bin/hadoop fs-rm/user/admin/aaron/needDelete删除中目录以及该目录下的所有文件hdfs/user/admin/aaron进入目录
1.HADOOP_HOME执彳亍
2.sh bin/hadoop fs-rmr/user/admin/aaron上传文件上传一个本机的文件至中目录下/home/admin/newFile hdfs/user/admin/aaron进入目录
1.HADOOP_HOME执行
2.sh bin/hadoop fs-put/home/admin/newFile/user/admin/aaron/下载文件下载中目录下的文件到本机中hdfs/user/admin/aaron newFile/home/admin/newFile进入目录
1.HADOOP_HOME执行
2.sh bin/hadoop fs-get/user/admin/aaron/newFile/home/admin/newFile查看文件我们可以直接在中直接查看文件,功能与类是类似hdfs cat查看中目录下的文件hdfs/user/admin/aaron newFile进入目录
1.HADOOP_HOME执彳亍
2.sh bin/hadoop fs-cat/home/admin/newFile操作MapReduce Job提交MapReduce Job原则上说,所有的都是一个包Hadoop MapReduceJob jar运行——个的/home/admin/hadoop/job.jar MapReduceJob进入目录
1.HADOOP_HOME我(彳亍
2.sh bin/hadoop jar/home/admin/hadoop/job.jar[jobMainClass][jobArgs]杀死某个正在运行的Job假设为Job_ld job_201005310937_0053进入目录
1.HADOOP_HOME执行
2.sh bin/hadoop job-kill job_201005310937_0053更多的命令Hadoop上面介绍的这些的操作命令是我们最常用的如果你希望了解更多,可以按照如下的方式获取命Hadoop令的说明信息进入目录
1.HADOOP_HOME执彳亍
2.sh bin/hadoop我们可以看到更多命令的说明信息Usage:hadoop[-config confdir]COMMANDwhere COMMANDis oneof:namenode-format formatthe DFSfilesystemsecondarynamenode run the DFSsecondary namenodenamenoderun theDFS namenodedatanoderun a DFS datanodedfsadminrun aDFS adminclientfsck run aDFSfilesystem checkingutilityfs run a genericfilesystem userclientbalancer runa clusterbalancing utilityjobtrackerruntheMapReduce jobTracker nodepipesrunaPipes jobtasktrackerrunaMapReduce taskTracker nodejobmanipulate MapReducejobsqueue getinformation regardingJobQueuesversion printthe versionjarjardistcp srcurldesturl copyfile ordirectories recursivelyarchive-archiveName NAMEsrc*dest createa hadooparchivedaemonlog get/set thelog levelfor eachdaemonorCLASSNAME runthe classnamed CLASSNAMEMostcommands printhelp wheninvoked w/o parameters.。
个人认证
优秀文档
获得点赞 0