One-liners! Além disso, alguns indicadores de desempenho para pessoas de big data.
Dado a pandas.DataFrame
que tem x Longitude e Latitude y da seguinte forma:
df.head()
x y
0 229.617902 -73.133816
1 229.611157 -73.141299
2 229.609825 -73.142795
3 229.607159 -73.145782
4 229.605825 -73.147274
Vamos converter o pandas.DataFrame
em um da geopandas.GeoDataFrame
seguinte maneira:
Importações de bibliotecas e acelerações bem torneadas :
import geopandas as gpd
import shapely
shapely.speedups.enable() # enabled by default from version 1.6.0
Código + tempos de referência em um conjunto de dados de teste que eu tenho:
#Martin's original version:
#%timeit 1.87 s ± 7.03 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
gdf = gpd.GeoDataFrame(df.drop(['x', 'y'], axis=1),
crs={'init': 'epsg:4326'},
geometry=[shapely.geometry.Point(xy) for xy in zip(df.x, df.y)])
#Pandas apply method
#%timeit 8.59 s ± 60.6 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
gdf = gpd.GeoDataFrame(df.drop(['x', 'y'], axis=1),
crs={'init': 'epsg:4326'},
geometry=df.apply(lambda row: shapely.geometry.Point((row.x, row.y)), axis=1))
O uso pandas.apply
é surpreendentemente mais lento, mas pode ser mais adequado para outros fluxos de trabalho (por exemplo, em conjuntos de dados maiores usando a biblioteca dask):
Créditos para:
Algumas referências de trabalho em andamento (a partir de 2017) para lidar com grandes dask
conjuntos de dados: