One-liners! Además de algunos indicadores de rendimiento para personas de big data.
Dado un pandas.DataFrame
que tiene x Longitud e Latitud y así:
df.head()
x y
0 229.617902 -73.133816
1 229.611157 -73.141299
2 229.609825 -73.142795
3 229.607159 -73.145782
4 229.605825 -73.147274
Convirtamos el pandas.DataFrame
a de la geopandas.GeoDataFrame
siguiente manera:
Importaciones de biblioteca y aceleraciones bien proporcionadas :
import geopandas as gpd
import shapely
shapely.speedups.enable() # enabled by default from version 1.6.0
Código + tiempos de referencia en un conjunto de datos de prueba que tengo por ahí:
#Martin's original version:
#%timeit 1.87 s ± 7.03 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
gdf = gpd.GeoDataFrame(df.drop(['x', 'y'], axis=1),
crs={'init': 'epsg:4326'},
geometry=[shapely.geometry.Point(xy) for xy in zip(df.x, df.y)])
#Pandas apply method
#%timeit 8.59 s ± 60.6 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
gdf = gpd.GeoDataFrame(df.drop(['x', 'y'], axis=1),
crs={'init': 'epsg:4326'},
geometry=df.apply(lambda row: shapely.geometry.Point((row.x, row.y)), axis=1))
El uso pandas.apply
es sorprendentemente más lento, pero puede ser mejor para algunos otros flujos de trabajo (por ejemplo, en conjuntos de datos más grandes que usan la biblioteca dask):
Créditos para:
Algunas referencias de Work-In-Progress (a partir de 2017) para manejar grandes dask
conjuntos de datos: