Preguntas etiquetadas con awk

Un lenguaje de escaneo y procesamiento dirigido por patrones.


2
Reindexar un archivo CSV grande
Revisé las respuestas en este útil hilo , pero mi problema parece ser lo suficientemente diferente como para no pensar en una buena respuesta (al menos con sed). Tengo un archivo CSV grande (más de 200 GB) con filas que se parecen a lo siguiente: <alphanumerical_identifier>,<number> donde <alphanumerical_identifier>es único en …
11 files  sed  awk  csv 

6
¿Cómo puedo generar la diferencia entre 2 archivos?
Mi archivo consta de lo siguiente; aproximadamente: username:username:username:username:username La línea anterior continúa con unos 600 caracteres. Uso el awkcomando para usarlo como argumento en una solicitud API / HTTP enviada desde la línea de comando. Estoy usando mi script para obtener una lista de cuentas de usuario que me 'siguen', …

3
Reemplazar múltiples cadenas en una sola pasada
Estoy buscando una forma de reemplazar las cadenas de marcador de posición en un archivo de plantilla con valores concretos, con herramientas comunes de Unix (bash, sed, awk, quizás perl). Es importante que el reemplazo se realice en una sola pasada, es decir, lo que ya está escaneado / reemplazado …
11 bash  sed  awk  string  replace 

9
¿Cómo puedo imprimir el número más largo en una cadena?
Estoy buscando un método para imprimir el número más largo en una cadena. Por ejemplo: si tengo la cuerda 212334123434test233 como puedo imprimir 212334123434 ? Nota: Estoy buscando la secuencia continua de números más larga, no el valor numéricamente más alto. Editar: Gracias por las respuestas, todos. La respuesta a …

3
Procese la última línea primero con awk
Tengo un archivo de datos que quiero normalizar usando awk, basado en el último punto de datos. Por lo tanto, me gustaría acceder primero al último punto de datos, para normalizar los datos y luego procesarlos normalmente. El siguiente método, usando tacdos veces, hace el trabajo, pero es quizás más …

2
awk aritmética de alta precisión
Estoy buscando una manera de decirle a awk que haga aritmética de alta precisión en una operación de sustitución. Esto implica leer un campo de un archivo y sustituirlo con un incremento del 1% en ese valor. Sin embargo, estoy perdiendo precisión allí. Aquí hay una reproducción simplificada del problema: …


5
Elimine las líneas duplicadas adyacentes mientras mantiene el orden
Tengo un archivo con una columna con nombres que se repiten varias veces cada uno. Quiero condensar cada repetición en una, mientras mantengo cualquier otra repetición del mismo nombre que no sea adyacente a otras repeticiones del mismo nombre. Por ejemplo, quiero girar el lado izquierdo hacia el lado derecho: …
11 awk  sed  sort  uniq 

3
Imprimir columnas que comienzan con una cadena específica
Tengo un archivo que se parece a esto: ID101 G T freq=.5 nonetype ANC=.1 addinfor ID102 A T freq=.3 ANC=.01 addinfor ID102 A T freq=.01 type=1 ALT=0.022 ANC=.02 addinfor Como puede ver, cada línea tiene un número ligeramente diferente de columnas. Quiero específicamente la columna 1, la columna 2, la …




2
Une dos archivos con columnas coincidentes
File1.txt id No gi|371443199|gb|JH556661.1| 7907290 gi|371443198|gb|JH556662.1| 7573913 gi|371443197|gb|JH556663.1| 7384412 gi|371440577|gb|JH559283.1| 6931777 File2.txt id P R S gi|367088741|gb|AGAJ01056324.1| 5 5 0 gi|371443198|gb|JH556662.1| 2 2 0 gi|367090281|gb|AGAJ01054784.1| 4 4 0 gi|371440577|gb|JH559283.1| 21 19 2 output.txt id P R S NO gi|371443198|gb|JH556662.1| 2 2 0 7573913 gi|371440577|gb|JH559283.1| 21 19 2 6931777 File1.txt tiene …
11 awk  join 

2
¿Cómo cambiar un archivo en el lugar usando awk? (como con "sed -i")
Tengo un awkguión new.awk: BEGIN { FS=OFS="," } NR==1 { for (i=1; i<=NF; i++) { f[$i] = i } } NR > 1 { begSecs= mktime(gensub(/[":-]/," ","g",$(f["DateTime"]))) endSecs = begSecs + $(f["TotalDuration"]) $(f["CallEndTime"]) = strftime("%Y-%m-%d %H:%M:%S", endSecs) } { print } Estoy llamando a esto en shell awk new.awk sample.csv …
11 linux  shell  awk 

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.