首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Python上netcdf文件的Sentinel3 OLCI (chl)平均值

Python上netcdf文件的Sentinel3 OLCI (chl)平均值
EN

Stack Overflow用户
提问于 2020-10-06 22:54:52
回答 1查看 369关注 0票数 2

我有一些问题,试图获得一个月平均值与哨兵3图像在…一切,真的。Python,Matlab,我们是两个陷入这个问题的人。

主要原因是这些图像的信息不在单个netcdf文件中,整齐地与坐标和产品放在一起。取而代之的是,它们都被放在一个名为different .nc files with different information each, about one single satellite image的一天文件夹中的单独文件中。据我所知,SNAP使用一个xmlxs文件来处理所有这些独立的.nc文件。

现在,我认为这将是一个好主意,尝试合并和创建/编辑.nc文件,创建一个新的每日.nc,其中包括叶绿素,坐标,以及,也可以添加它,时间。稍后,我将合并这些新的值,以便能够使用xarray计算月平均值。至少这是我的想法,但我不能做第一部分。这可能是一个显而易见的解决方案,但下面是我尝试使用xarray模块的方法

代码语言:javascript
复制
import os
import numpy as np
import xarray as xr
import netCDF4
from netCDF4 import Dataset
  
nc_folder = df_try.iloc[0] #folder where the image files are

#open dataset in xarray
nc_chl = xr.open_dataset(str(nc_folder['path']) + '/' + 'chl_nn.nc') #path to chlorophyll file 
nc_chl

n_coord =xr.open_dataset(str(nc_folder['path'])+ '/'+ 'geo_coordinates.nc') #path to coordinates file

n_time = xr.open_dataset(str(nc_folder['path'])+ '/' + 'time_coordinates.nc') #path to time file

ds_grid = [[nc_chl], [n_coord], [n_time]]

combined = xr.combine_nested(ds_grid, concat_dim=[None, None]) 
combined #dataset with all but not recognizing coordinates

ds = combined.rename({'latitude': 'lat', 'longitude': 'lon', 'time_stamp' : 'time'}).set_coords(['lon', 'lat', 'time']) #dataset recognizing coordinates as coordinates
ds 

这给出了一个数据集,其中包含

尺寸:列4865行: 4091

3坐标(经度、经度和时间)和chl变量。

现在,它不能保存到netcdf4 (我尝试了,但有一个错误),但我也在想,是否有人知道另一种方法来计算平均值?我有三年的图像(从2017年开始到2019年结束),我需要以不同的方式(每月,季节...)进行平均。我目前的主要问题是,叶绿素值与地理坐标是分开的,所以直接使用叶绿素文件是行不通的,而且只会弄得一团糟。

有什么建议吗?

EN

回答 1

Stack Overflow用户

发布于 2020-12-03 21:55:16

这里有两个选项:

使用xarray

在xarray中,您可以将它们添加为坐标。这有点棘手,因为geo_coordinates.nc文件中的坐标也是多维的。

一种可能的解决方案如下:

代码语言:javascript
复制
import netCDF4 
import xarray as xr
import matplotlib.pyplot as plt

# paths
root = r'C:<your_path>\S3B_OL_2_WFR____20201015.SEN3\chl_nn.nc'        #set path to chl file
coor = r'C:<your_path>\S3B_OL_2_WFR____20201015.SEN3\geo_coordinates.nc' #set path to the coordinates file

# loading xarray datasets
ds = xr.open_dataset(root)
olci_geo_coords = xr.open_dataset(coor)

# extracting coordinates
lat = olci_geo_coords.latitude.data
lon = olci_geo_coords.longitude.data

# assign coordinates to the chl dataset (needs to refer to both the dimensions of our dataset)
ds = ds.assign_coords({"lon":(["rows","columns"], lon), "lat":(["rows","columns"], lat)})

# clip the image (add your own coordinates)
area_of_interest = ds.where((10 < ds.lon) & (ds.lon < 12) & (58 < ds.lat) & (ds.lat < 59), drop=True)

# simple plot with coordinates as axis
plt.figure(figsize=(15,15))
area_of_interest["CHL_NN"].plot(x="lon",y="lat")

更简单的方法是将它们作为变量添加到新的数据集中:

代码语言:javascript
复制
# path to the folder
root = r'C:<your_path>\S3B_OL_2_WFR____20201015.SEN3\*.nc'        #set path to chl file

# create a dataset by combining nc files (coordinates will become variables)
ds = xr.open_mfdataset(root,combine = 'by_coords')

但在这种情况下,当您绘制图像或对其进行剪切时,您不能直接使用坐标。

使用snappy

查看:https://senbox.atlassian.net/wiki/spaces/SNAP/pages/19300362/How+to+use+the+SNAP+API+from+Python

安装后(不幸的是snappy仅支持python 2.7、3.3或3.4),您可以直接在python上使用可用的SNAP函数来聚合您的卫星图像并创建周/月平均值。然后,您不需要合并lon,稍后netcdf文件,因为您将在xfdumanifest.xml上工作,而SNAP将负责该工作。

这是一个例子。它还执行聚合(平均计算两个chl nc文件):

代码语言:javascript
复制
from snappy import ProductIO, WKTReader
from snappy import jpy
from snappy import GPF
from snappy import HashMap

# setting the aggregator method
aggregator_average_config = snappy.jpy.get_type('org.esa.snap.binning.aggregators.AggregatorAverage$Config')
agg_avg_chl = aggregator_average_config('CHL_NN')

# creating the hashmap to store the parameters
HashMap = snappy.jpy.get_type('java.util.HashMap')
parameters = HashMap()

#creating the aggregator array
aggregators = snappy.jpy.array('org.esa.snap.binning.aggregators.AggregatorAverage$Config', 1)
#adding my aggregators in the list
aggregators[0] = agg_avg_chl

# set parameters
# output directory 
dir_out = 'level-3_py_dynamic.dim'
parameters.put('outputFile', dir_out)

# number of rows (directly linked with resolution)
parameters.put('numRows', 66792) # to have about 300 meters spatial resolution

# aggregators list
parameters.put('aggregators', aggregators)

# Region to clip the aggregation on
wkt="POLYGON ((8.923302175377243 59.55648108694149, 13.488748662344074 59.11388968719029,12.480488185001589 56.690625338725155, 8.212366327767503 57.12425256476263,8.923302175377243 59.55648108694149))"
geom = WKTReader().read(wkt)
parameters.put('region', geom)

# Source product path 
path_15 = r"C:<your_path>\S3B_OL_2_WFR____20201015.SEN3\xfdumanifest.xml"
path_16 = r"C:\<your_path>\S3B_OL_2_WFR____20201016.SEN3\xfdumanifest.xml"
path = path_15 + "," + path_16
parameters.put('sourceProductPaths', path)

#result = snappy.GPF.createProduct('Binning', parameters, (source_p1, source_p2))

# create results
result = snappy.GPF.createProduct('Binning', parameters) #to be used with product paths specified in the parameters hashmap

print("results stored in: {0}".format(dir_out) )

我是个新手,对这个话题很感兴趣,很高兴听到你/其他的解决方案!

票数 5
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/64228381

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档