Respuestas:
bin/hadoop fs -get /hdfs/source/path /localfs/destination/path
bin/hadoop fs -copyToLocal /hdfs/source/path /localfs/destination/path
namenode_machine:50070
), busque el archivo que desea copiar, desplácese hacia abajo en la página y haga clic en descargar el archivo .En Hadoop 2.0,
hdfs dfs -copyToLocal <hdfs_input_file_path> <output_path>
dónde,
hdfs_input_file_path
tal vez obtenido de http://<<name_node_ip>>:50070/explorer.html
output_path
es la ruta local del archivo, donde se copiará el archivo.
También puede usar get
en lugar de copyToLocal
.
Para copiar archivos de HDFS al sistema de archivos local, se puede ejecutar el siguiente comando:
hadoop dfs -copyToLocal <input> <output>
<input>
: la ruta del directorio HDFS (p. ej. / mydata) que desea copiar<output>
: la ruta del directorio de destino (por ejemplo, ~ / Documentos)hadoop fs -ls
?
puedes lograrlo de ambas maneras.
1.hadoop fs -get <HDFS file path> <Local system directory path>
2.hadoop fs -copyToLocal <HDFS file path> <Local system directory path>
Ex:
Mis archivos se encuentran en /sourcedata/mydata.txt . Quiero copiar el archivo al sistema de archivos local en esta ruta / user / ravi / mydata
hadoop fs -get /sourcedata/mydata.txt /user/ravi/mydata/
Si su "archivo" de origen se divide entre varios archivos (tal vez como resultado de map-reduce) que viven en el mismo árbol de directorios, puede copiarlo en un archivo local con:
hadoop fs -getmerge /hdfs/source/dir_root/ local/destination
Si está utilizando Docker, debe seguir los siguientes pasos:
copie el archivo de hdfs a namenode (hadoop fs -get output / part-r-00000 / out_text). "/ out_text" se almacenará en el namenode.
copie el archivo desde namenode al disco local por (docker cp namenode: / out_text output.txt)
output.txt estará allí en su directorio de trabajo actual
bin/hadoop fs -put /localfs/destination/path /hdfs/source/path