Respuestas:
bin/hadoop fs -get /hdfs/source/path /localfs/destination/pathbin/hadoop fs -copyToLocal /hdfs/source/path /localfs/destination/pathnamenode_machine:50070), busque el archivo que desea copiar, desplácese hacia abajo en la página y haga clic en descargar el archivo .En Hadoop 2.0,
hdfs dfs -copyToLocal <hdfs_input_file_path> <output_path>
dónde,
hdfs_input_file_path tal vez obtenido de http://<<name_node_ip>>:50070/explorer.html
output_path es la ruta local del archivo, donde se copiará el archivo.
También puede usar geten lugar de copyToLocal.
Para copiar archivos de HDFS al sistema de archivos local, se puede ejecutar el siguiente comando:
hadoop dfs -copyToLocal <input> <output>
<input>: la ruta del directorio HDFS (p. ej. / mydata) que desea copiar<output>: la ruta del directorio de destino (por ejemplo, ~ / Documentos)hadoop fs -ls?
puedes lograrlo de ambas maneras.
1.hadoop fs -get <HDFS file path> <Local system directory path>
2.hadoop fs -copyToLocal <HDFS file path> <Local system directory path>
Ex:
Mis archivos se encuentran en /sourcedata/mydata.txt . Quiero copiar el archivo al sistema de archivos local en esta ruta / user / ravi / mydata
hadoop fs -get /sourcedata/mydata.txt /user/ravi/mydata/
Si su "archivo" de origen se divide entre varios archivos (tal vez como resultado de map-reduce) que viven en el mismo árbol de directorios, puede copiarlo en un archivo local con:
hadoop fs -getmerge /hdfs/source/dir_root/ local/destination
Si está utilizando Docker, debe seguir los siguientes pasos:
copie el archivo de hdfs a namenode (hadoop fs -get output / part-r-00000 / out_text). "/ out_text" se almacenará en el namenode.
copie el archivo desde namenode al disco local por (docker cp namenode: / out_text output.txt)
output.txt estará allí en su directorio de trabajo actual
bin/hadoop fs -put /localfs/destination/path /hdfs/source/path