awk y cortar en un archivo muy grande


0

Tengo que extraer una columna de datos de un archivo muy grande> 100 GB.

Sé cómo usar los comandos awky cuthacerlo, pero me gustaría saber si uno es más eficiente (desde una perspectiva de velocidad) para tal tarea.


Grep debe ser la forma más rápida de buscar una cadena en un archivo: grep -o "\w*pattern\w*" /path/to/file. Es posible que desee leer también sobre el paralleluso de múltiples grep's en fragmentos de ese archivo.
Alex

Si cutse puede usar, debería ser más rápido, ya que es mucho más simple y, por lo tanto, menos capaz.
Michael Vehrs
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.