hdfs之两个文件的 Hadoop Put 命令
mate10pro
阅读:58
2024-10-25 08:56:14
评论:0
可以使用以下命令将名为 records.txt 的文件从本地复制到 HDFS
hadoop dfs -put /home/cloudera/localfiles/records.txt /user/cloudera/inputfiles
通过使用上述命令,文件records.txt 将被复制到具有相同名称的HDFS 中。
但我想将两个文件(records1.txt 和 demo.txt)存储到 HDFS 中
我知道我们可以使用类似下面的东西
hadoop dfs -put /home/cloudera/localfiles/records* /user/cloudera/inputfiles
但是是否有任何命令可以帮助我们存储一两个不同名称的文件以复制到 hdfs 中?
请您参考如下方法:
使用 put 命令参数,您可以提供一个或多个源文件,如上所述 here 。所以尝试这样的事情:
hadoop dfs -put /home/cloudera/localfiles/records* /home/cloudera/localfiles/demo* /user/cloudera/inputfiles
从 hadoop shell 命令用法:
put
Usage: hadoop fs -put <localsrc> ... <dst>
Copy single src, or multiple srcs from local file system to the destination filesystem. Also reads input from stdin and writes to destination filesystem.
hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -put - hdfs://nn.example.com/hadoop/hadoopfile
Reads the input from stdin.
Exit Code:
Returns 0 on success and -1 on error.
声明
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。