最近,我开始使用SRTM数据进行一个项目,并使用phyghtmap提取pbf文件。
首先,我将获取hgt文件,使用以下命令将它们转换为tif:gdal_fillnodata.py data.hgt data.tif
然后我就用gdalwarp -co BIGTIFF=YES -co TILED=YES -co COMPRESS=LZW -co PREDICTOR=2 -t_srs "+proj=merc +ellps=sphere +R=6378137 +a=6378137 +units=m" -r bilinear -tr 90 90 data.tif warp-90.tif来扭曲他们
最后用phyghtmap --max-nodes-per-tile=0 -s 10 -0 --pbf warp-90.tif创建pbf文件。
结果是一个pbf文件列表。当我用osm2pgsql将它们加载到osm2pgsql中时,它们是非常好的。但我想把它们合并以加快进口。
我已经尝试过所有主要的解决方案:
osmium merge *.pbf -o merged.pbfpbf转换为o5m,然后将osmconvert64 *.o5m -o=merge.o5m转换为pbfosmosis --read-pbf lon4.00_5.00lat44.00_45.00_local-source.pbf --read-pbf lon5.00_6.00lat44.00_45.00_local-source.osm.pbf --merge --write-pbf osmo_merge.osm.pbf合并它们都没有工作,结果只是结果文件中合并的数据的很小一部分。
我做错了什么吗?
注意:如果我用--append加载所有的pbf,它可以工作,但是对于世界上很小的一部分,它需要花费很长的时间。
发布于 2018-12-17 08:39:36
我发现了问题。我没有在脚本中设置--start-node-id和--start-way-id,所以我的所有pbf都使用相同的id范围。现在我分配唯一的ID,它的工作就像一个魅力:)
https://stackoverflow.com/questions/53803549
复制相似问题