Quiero saber si es posible usar la to_csv()
función pandas para agregar un marco de datos a un archivo csv existente. El archivo csv tiene la misma estructura que los datos cargados.
Quiero saber si es posible usar la to_csv()
función pandas para agregar un marco de datos a un archivo csv existente. El archivo csv tiene la misma estructura que los datos cargados.
Respuestas:
Puede especificar un modo de escritura python en la to_csv
función pandas . Para anexar es 'a'.
En tu caso:
df.to_csv('my_csv.csv', mode='a', header=False)
El modo predeterminado es 'w'.
df.to_csv(output_path, mode='a', header=not os.path.exists(output_path))
Puede agregar a un csv abriendo el archivo en modo agregar:
with open('my_csv.csv', 'a') as f:
df.to_csv(f, header=False)
Si este fue su csv foo.csv
:
,A,B,C
0,1,2,3
1,4,5,6
Si lee eso y luego agrega, por ejemplo df + 6
:
In [1]: df = pd.read_csv('foo.csv', index_col=0)
In [2]: df
Out[2]:
A B C
0 1 2 3
1 4 5 6
In [3]: df + 6
Out[3]:
A B C
0 7 8 9
1 10 11 12
In [4]: with open('foo.csv', 'a') as f:
(df + 6).to_csv(f, header=False)
foo.csv
se convierte en:
,A,B,C
0,1,2,3
1,4,5,6
0,7,8,9
1,10,11,12
with open(filename, 'a') as f:
df.to_csv(f, header=f.tell()==0)
mode='a'
como parámetro para to_csv
(es decirdf.to_csv(f, mode='a', header=f.tell()==0)
Una pequeña función auxiliar que uso con algunas garantías de comprobación de encabezado para manejarlo todo:
def appendDFToCSV_void(df, csvFilePath, sep=","):
import os
if not os.path.isfile(csvFilePath):
df.to_csv(csvFilePath, mode='a', index=False, sep=sep)
elif len(df.columns) != len(pd.read_csv(csvFilePath, nrows=1, sep=sep).columns):
raise Exception("Columns do not match!! Dataframe has " + str(len(df.columns)) + " columns. CSV file has " + str(len(pd.read_csv(csvFilePath, nrows=1, sep=sep).columns)) + " columns.")
elif not (df.columns == pd.read_csv(csvFilePath, nrows=1, sep=sep).columns).all():
raise Exception("Columns and column order of dataframe and csv file do not match!!")
else:
df.to_csv(csvFilePath, mode='a', index=False, sep=sep, header=False)
Inicialmente comenzando con un marco de datos pyspark: obtuve errores de conversión de tipo (al convertir a pandas df y luego agregar a csv) dados los tipos de esquema / columna en mis marcos de datos pyspark
Resolvió el problema forzando a todas las columnas en cada df a ser de tipo cadena y luego agregando esto a csv de la siguiente manera:
with open('testAppend.csv', 'a') as f:
df2.toPandas().astype(str).to_csv(f, header=False)
Un poco tarde para la fiesta, pero también puede usar un administrador de contexto, si está abriendo y cerrando su archivo varias veces, o registrando datos, estadísticas, etc.
from contextlib import contextmanager
import pandas as pd
@contextmanager
def open_file(path, mode):
file_to=open(path,mode)
yield file_to
file_to.close()
##later
saved_df=pd.DataFrame(data)
with open_file('yourcsv.csv','r') as infile:
saved_df.to_csv('yourcsv.csv',mode='a',header=False)`