Les tuiles de Sentinel-2, comment ça marche ?

=>

J'ai récemment cherché des informations sur la convention de nommage des tuiles sur lesquelles seront découpées les données de Niveau 1C de Sentinel-2, et voici ce que j'ai trouvé :

  • Un Manuel de l'utlisateur pour les produits de Sentinel-2 (qui n'explique pas vraiment la convention de nommage des tuiles)
  • Un fichier kml qui fournit l'emprise de chaque tuile ainsi que son nom. L'accès au fichier se trouve dans le menu "key resources" sur la droite, cliquer sur "Sentinel-2 Level 1C tiling grid"

A partir de ces deux informations, voici ce que j'ai pu deviner :

  • les 2 premiers numéros du nom d'une tuile (comme par exemple 31TCJ) correspondent à la zone UTM. Le monde est divise en 60 zones de 8 degrés de largeur en longitude, avec des numéros qui s'accroissent en allant vers l'est. La zone 1 se trouve sur l'océan pacifique..
  • Chaque zone est divisée en latitude, en bandeaux de 6 degrés. Cette division est représentée par une lettre, qui s’accroît du Sud au Nord. Les deux premiers chiffres, et la lettre définissent donc une grille de cases UTM.
  • Chaque case de ce découpage est divisée en tuiles de 110*110 km², avec une superposition de 10 km des tuiles adjacentes. D'est en Ouest, c'est la 4e Lettre, du Sud au Nord, c'est la 5e lettre.  Ce qui est étonnant, c'est que ces lettres ne commencent pas à A pour chaque case de la grille UTM, mais continuent à croître de case en case, mais sont remises à la valeur A quand le compteur dépasse Z.

Quelques exemples :

  • La tuile de Toulouse porte le numéro, 31TCJ. 31 est la zone UTM, T désigne bandeau en latitude.. C correspond à la position de la tuile sur l'axe ouest-est, et J sur l'axe Sud Nord.
  • Si vous cherchez la tuile à l'Est de Toulouse, qui contient Castres, c'est 31TDJ.
  • Si vous cherchez la tuile au Nord Est de Toulouse, qui contient Aurillac, c'est 31TDK.

 

Il serait pratique d'avoir une formule pour déterminer la ou les tuiles qui contiennent un point de coordonnées (longitude et latitude) connues. Mais ça ne me parait pas évident. Il devrait être plus facile de créer un programme. Si quelqu'un a l'un ou l'autre, merci de nous le faire suivre !

 

Un collègue m'a dit que cette grille est née dans le cerveau d'un militaire américain (oui, les militaires ont un cerveau), en voici une description, pour laquelle on reste sur sa faim quand à la manière dont les deux dernières lettres ont été définies.

 

 

 

 

 

 

Retour sur la première image de Sentinel-2

=>

Vous êtes plusieurs à m'avoir parlé du défaut apparent, visible sur la partie maritime de la première image de Sentinel-2A. Je voudrais vous rassurer, ce n'est pas un défaut, mais un effet directionnel.

 

Je vous explique :
- pour chaque bande spectrale de Sentinel-2, il faut 30000 détecteurs pour couvrir le champ de 300 km à 10m de résolution. Ces 30000 détecteurs ne peuvent pas être construit en une seule barrette. Ce sont 10 ensembles de barrettes qui sont assemblés pour constituer la ligne de 30000 détecteurs. Pour des raisons d'encombrement, il n'est pas possible de juxtaposer ces barrettes, qui doivent être décalées dans le champ. Les barrettes paires visent légèrement vers l'avant, les barrettes impaires vers l'arrière, avec des différences d'angle de vue pouvant atteindre 3 dégrés dans certaines bandes.

 

Plan focal de Sentinel-2

 

Or sur la première image de Sentinel-2, nous observons sur la mer la réflexion spéculaire du soleil sur la mer, qui est une cible qui varie très rapidement en fonction de l'angle de vue, comme on peut le voir sur la photo-ci dessous. Bertrand Fougnie, du CNES, a calculé la réflectance observée au dessus de la tache de réflexion spéculaire, dans les conditions géométriques de la première image Sentinel-2. On observe bien d'assez fortes différences entre les détecteurs pairs et impairs. Ces différences dépendent de la vitesse du vent. Quand le vent est faible, la tache spéculaire couvre une plus petite surface et ses variations angulaires sont plus fortes.

 

Le "défaut" que nous observons est donc tout simplement lié à une différence d'angle d'observation. Il n'est d'ailleurs pas visible au dessus des terres, car les variations directionnelles des surfaces terrestres sont beaucoup plus lentes, excepté pour certaines conditions très particulières, qui ne devraient pas être visibles avec Sentinel-2.

 

Certains m'ont dit que celà pourrait donc poser des problèmes pour l'utilisation des données au dessus de l'eau. Je ne le pense pas, parce que si l'on veut pouvoir utiliser ces données sur l'eau, en présence de réflexion spéculaire, il faut être capable de corriger ce phénomène, et on peut donc tout à fait prendre en compte les différences d'angle.

High cloud detection using the cirrus band of LANDSAT 8 or Sentinel-2

Atmospheric absorption : in blue, the surface reflectance of a vegetation pixel, as a function of wavelength. In red, the reflectance of the same pixel at the top of atmosphere.  For a wavelength of 1.38 µm, water vapour totally absorbs the light that comes from the earth surface at sea level.

=>

The LANDSAT-8 and SENTINEL-2 satellites have a spectral band centered on the 1.38µm wavelength, which is designed to allow the detection of high altitude clouds. This spectral band corresponds to a strong absorption band of water vapour. its absorption is so strong that a photon emitted by the sun in this wavelength has nearly no chance to reach the earth surface, and even less to reach the satellite after that without being absorbed. The consequence is therefore that the surface is usually not visible on the images taken for the 1.38 µm channel.

 

 

However, as water vapour is concentrated in the lower layers of the atmosphere, the photons reflected by high clouds have much less chances to be absorbed. The 1.38 µm images display the higher parts of the atmosphere, and can be used to screen the high clouds, as it may be seen on the image below, on which a very large number of plane contrails may be observed (I counted 35, what about you ?)

 

This spectral band is therefore useful to detect these thin cirrus clouds which, without this band, were usually difficult to spot and used to degrade our reflectances time series.

 

LANDSAT 8 image taken over Paris in April 2013. On the left, the RGB color composite, and on the right the 1.38µm channel. The plane contrails can be easily detected, and given their number, one can see that we might have to choose whether to fly or to observe...

 

 

It is just sad that a simple threshold cannot do the detection with a 100% accuracy (but if it was the case, cloud detection would be easy for everyone, and we would not be useful anymore !)

First of all, the low clouds and the fog are very close to the surface and are not visible in that band. One has to use other criteria to detect them. Moreover, some mountains may emerge from the absorbing layers, all the more when the atmosphere is dry. A thresholding to detect high clouds must take into account the surface altitude, and for a better accuuracy, should take into account the waper vapour quantity and vertical repartition, which may be predicted using weather analyses.

 

Landsat 8 image taken above the center of Madagascar, in September 2013. On the left, the RGB color composite, and on the rght, the 1.38 µm channel. There is nearly no cloud on this image, but the surface reflectance is much greater than zero, because part or the region has an altitude above 1500m, and because the atmosphere was particularly dry on that day..


Finally, the 1.38µm channel is efficient to detect high clouds and especially thin cirrus, but has to be used with some precautions to avoid that all mountains be classified as high clouds. This is how we proceed in the MACCS processor.

 

 

 

 

 

 

La détection des nuages hauts avec la bande Cirrus de Landsat et Sentinel-2

Absorption atmosphérique. En bleu, la réflectance de surface pour un pixel couvert de végétation, en fonction de la longueur d'onde, en rouge la réflectance au sommet de l'atmosphère pour ce même pixel. A 1.38 µm, la vapeur d'eau absorbe totalement la lumière provenant de la surface au niveau de la mer.

=>

Les satellites LANDSAT-8 et SENTINEL-2 possèdent une bande spectrale centrée sur la longueur d'onde 1.38 µm, destinée à la détection des nuages hauts. Cette bande spectrale correspond à une forte bande d'absorption de la vapeur d'eau. Cette absorption est tellement forte qu'il est très peu probable qu'un photon émis par le soleil arrive à la surface terrestre, et si celà arrive, il est encore moins probable qu'il parvienne ensuite jusqu'au satellite sans être absorbé. Résultat, sur les images de cette bande, la surface n'est en général pas visible.

 

Par contre, comme la vapeur d'eau est en général concentrée dans les basses couches de l'atmosphère, les photons réfléchis par les nuages hauts ont beaucoup moins de chances d'être absorbés. Les images que l'on observe dans cette bande permettent donc d'observer la partie haute de l'atmosphère, et donc de détecter les nuages hauts, comme on le voit sur l'image ci dessous, sur laquelle de très nombreuses traces d'avions sont visibles (j'en compte 35, et vous ?).

 

Cette bande permet donc enfin de détecter, par un simple seuillage, ces fameux cirrus fins qui jusqu'ici étaient assez mal détectés, étaient parfois pris pour des aérosols, et en général perturbaient nos mesures.

 

Image LANDSAT 8 acquise sur Paris le 14/04/2013. A gauche, composition colorée RGB, à droite, image de la bande 1.38µm. A voir le nombre de traces d'avions, on se dit qu'il va falloir choisir entre voler ou observer la terre...

 

Malheureusement, un simple seuillage pour détecter les nuages n'est pas infaillible. (mais si c'était le cas, la détection de nuages serait à la portée de tous et nous ne servirions plus à rien...).

 

D'abord, les nuages bas et les brouillards sont souvent proches de la surface et donc ne sont pas visibles dans cette bande, il faut utiliser d'autres critères pour les détecter. De plus, les montagnes peuvent émerger de la couche absorbante, et ce d'autant plus que l'atmosphère est sèche. Le seuillage pour détecter les nuages hauts doit donc prendre en compte l'altitude de la surface et, pour bien faire, devrait aussi dépendre de la quantité de vapeur d'eau, qui peut être prédite par les modèles météorologiques.

 

Image LANDSAT 8 acquise au centre de Madagascar le 13/09/2013. A gauche, composition colorée RGB, à droite, image de la bande 1.38µm. Il n'y a quasiment aucun nuage sur cette image, mais la réflectance de surface ne s’annule pas en raison de l'altitude supérieure à 1500m sur la partie visible de l'image et de l'atmosphère particulièrement sèche ce jour là.


Bref, cette bande 1.38 µm est efficace pour détecter les nuages hauts et notamment les cirrus fins,  mais doit être employée avec quelques précautions afin d'éviter que toutes les montagnes soient systématiquement déclarées nuageuses. C'est ce que nous faisons dans la chaîne MACCS.

 

 

 

 

 

Phased orbits, how do they work ?

=>

As we are working to set a new Take5 experiment with SPOT5, here are some explanations of how it is possible to change the repeat cycle of a satellite from 26 days to 5 days, by just changing the satellite altitude by a couple of kilometres. There is nothing complicated behind that, just some simple arithmetic.

A phased orbit is an orbit for which the satellite repeats the same trajectory periodically. From its orbit at an altitude of 822 km, SPOT5, like its predecessors, has a cycle of 26 days. Every 26 days, it overflies the same places on earth. In 26 days, SPOT5 makes 369 revolutions around the earth. In 24 hours, a SPOT satellite runs through 369/26=14.19 orbits. Lowering its altitude by 2 km, the satellite slows a little, but the length of the circle it has to run along is reduced. It takes a little less time to make a revolution around the earth. The satellite does exactly 14.2 orbits per day.

 

Here are some of the orbits of SPOT4 (Take5), with some of the sites observed in France and North Africa during the experiment. The satellite started with the Cyan track, then the green one on the day after, then the yellow one on the next day and so on. 5 days later, it came back to the cyan orbit. You may see that it was possible to acquire a site on on the green track from the adjacent one on the cyan track.

 

14.2 orbits per days, is equivalent to 71 orbits in 5 days. After 71 orbits and 5 days exactly  SPOT4 was always at the same place during the Take5 experiment, and its cycled was changed from 26 to 5 days.

 

I have been also asked how the initial 26 days repeat cycle of SPOT5 was defined. The CNES engineers who designed it wanted to make it possible to observe each point on the earth from the vertical. As the SPOT satellites had a field of view of 116 km using both instruments, with a 26 days repeat cycle we had 116x26x14.19 = 43000km, just a little more than earth equator length. However, it was quickly seen that users did not ask for exactly vertical images and that the instruments were programmed mostly independently looking in different directions. However, the 26 days cycle was kept for all the SPOT satellites just as the High Speed Trains rail separation is related to the width of the hindquarters of a horse.

Finally, nothing would prevent from using the SPOT satellites from a 5 days repeat cycle orbit, which would not really change the ability to use the images how they are used now, but would allow new possibilities thanks to the possibility to observe users from constant viewing angles.

 

It is a little funny to observe that SPOT6 and SPOT7 do not use the initial SPOT orbit, and only fly at an altitude of 694 km but still with a 26 days phased orbit, this time obtained with 379/26=14.58 orbits per day. However, the justification cannot be the field of view, as this field of view is only 60 km.  But just by rising the orbit by a few kilometers, a 5 days orbit could be obtained

 

 

 

Systematic or On-Demand acquisitions ?

Example of Pleiades (CNES) acquisition plan. Among the sites requested, only those linked to the track by a yellow line are observed from this overpass.

=>

This post is an old one (last year), but I had not translated it.

 

The satellites observing the Earth at a high resolution may be divided in two categories according to their programming mode :

  • Satellites with On Demand Acquisition (SODA) :

Users ask the provider to program an image above their site. The provider collects all demands and optimises the acquisition plan so that a maximum of user requests are satisfied. The provider often charges an extra cost if the user needs an image at a precise date, and in zones where satellite image demand is high, a user is never sure to get the image he requested, unless he pays for a higher priority.

SPOT, Pleiades, Ikonos, Quickbird, Formosat-2, Rapid Eye and most radar systems are of  "SODA" type.

 

  • the Systematic Acquisition Satellites (SAS)

The image provider defines the zone to observe at the beginning or the satellite mission, and these zones are observed at each overpass of the satellite. In some cases (LANDSAT, Sentinel-2), the acquisition zones covers all lands, while on other cases (Venµs, SPOT4-(Take5)), the acquisition may only cover a few preselected sites.

 

Usually, SODA provide a better spatial resolution, while usually, the SAS provide a better temporal resolution. The SODA images must generally be purchased, since the resource is limited, while the SAS images are usually free of charge. There were periods when LANDSAT images were sold, but they encountered little commercial success, while their success is huge now that they are free of charge. Finally, the SODA are best suited to applications for which the acquisition date is not very important and for which a high resolution is essential, for instance urban studies or monitoring of ecological corridors, while the SAS are better suited to surfaces which quickly evolve, such as natural surfaces or farm lands, and they are best suited to automatically produce detailed land cover maps.

Oppositely to the US who, thanks to LANDSAT, have been working with SAS images, in Europe, users are much more trained to use SODA images such as the ones provided by SPOT. This situation should change radically, first with LANDSAT 8, which is much easier to access in Europe than LANDSAT 5, but above all with Sentinel-2, but the adaptation to this kind of data will require a lot of work and some time. New processing methods and new applications must be developed, which was one of the aim of SPOT4 (Take5) data set.

 

The directional effects, how they work

Riddle : from which of these two ballons was the picture taken ? Solution is at the end of the post.

Among Sentinel-2, LANDSAT, Venµs or SPOT4 (Take 5) features, there is one which is frequently forgotten: it is the possibility to observe all lands every 5th day under constant viewing angles. This way of observing limits the directional effects which are one of the most perturbing effects for reflectance time series. Yet, these effects are not always known by the users of time series of remote sensing images.

The way directional effects modify the reflectances is highly visible n the pictures below, which were taken from an helicopter with the same parameters except for the viewing angles. The image on the left was taken with the back to the sun, in the backscattering direction, while the picture on the right was taken at 90 degrees from that direction.

 

Conifer forest observed from an helicopter, in backscattering direction (the helicopter shadow is visible). Note the nearer from the helicopter shadow, the higher thereflectance, as tree shadow are no more visible Conifer forest observed from an helicopter, at 90 degrees from the backscattering direction. Reflectance is much lower since the shadows cast by the trees are visible as well as the shadows cast by the needles on the needles below (Pictures F.M. Bréon)

 

Depending on the observation angles and the solar angles, the reflectances measured by a satellite will change a lot, and we can therefore talk of "reflectance anisotropy", even if "directional effects" is the most frequently used locution. The way they change depends on the surface type : a flat sand desert will have little anisotropy (see next figure on the left), and the surface is said "quasi lambertian". On the contrary, a calm water surface will behave as a mirror, and will exhibit a very strong reflectance peak on the direction opposite to the sun direction, with regard to the vertical. Finally, vegetation always exhibits reflectance peak in the back scattering direction, for which the solar and viewing angles are quasi identical (see the plot below, on the right). On this plot, a reflectance variation greater than 30% can be observed in a couple of degrees. This phenomenon is called Hot Spot, and it is due to the fact that from this direction, one can only see the sunlit faces. Finally, the plot shows that for an angle variation of 40 degrees, the surface reflectance may change by a factor two. The directional effects should thus not be neglected.

 

Reflectances of a desert, observed by the POLDER instrument, as a function of the phase angle (angular distance to the backscattering direction). In red, the Near Infrared band, in green, the red band. Reflectances of a cropland, observed by the POLDER instrument, as a function of the phase angle (angular distance to the backscattering direction). In red, the Near Infrared band, in green, the red band.

 

The wide field of view instruments, such as MODIS, SPOT/VEGETATION, MERIS, VIIRS or Proba-V, and the high resolution ones with a pointing capability, such as SPOT, Rapid-Eye or Pleiades, deliver time series acquired under changing angles. Their reflectances time series are thus very noisy if no correction is attempted. NDVI time series are less noisy, because both red and Near Infrared spectral bands exhibit similar variations. Several correction methods were implemented, but their results are far from perfect.

 

In order to avoid all these troubles, my CESBIO colleagues F.Cabot and G. Dedieu invented the RHEA concept, which consists in putting the satellite on an orbit with a short repeat cycle (1 to 5 days), in order to observe a given site under constant angles. The VENµS satellite stems from this concept, and Sentinel-2 and SPOT4 (Take5) as well. Formosat-2 has also a repeat cycle of one day, but this feature is mainly due to the fact that the Taiwan island can be observed every day from that orbit. Regarding LANDSAT, I do not now if its designers wanted to minimize directional effects, but of course their choice was a good choice.

Thanks to the satellites that observe under constant viewing angles, the noise on time series is really decreased, as shown on the plot below, which gives the surface reflectances  of a wheat pixel (24*24 m²) in Morocco, observed by Formosat-2 during a whole growing season.

Surface reflectances as a funcion of time for a wheat pixel in Morocco.

Finally, it is the hot spot phenomenon, which gives the solution to the riddle above, since the balloon on the left is surrounded by a brighter halo. It means that the direction around the left ballon is the backscattering direction, and therefore that the observer was on this ballon. This is also proven by the complete photograph (taken by A. Deramecourt, a CNES colleague).  I think my colleague saw some poetry in the two balloons hugging, which I hope you still can  appreciate, while, because of my professional bias, I only see a mere hot-spot.

 

 

Les effets directionnels, comment ça marche ?

Devinette : depuis laquelle de ces deux montgolfières la photographie a t'elle été prise ? Solution à la fin de l'article.

=>

Parmi les caractéristiques de Sentinel-2, de LANDSAT, de Venµs ou de SPOT4 (Take 5), il y en a une qui est très fréquemment oubliée : c'est la possibilité d'observer toutes les terres avec une répétitivité des observations tous les 5 jours sous des angles constants. Les observations sous des angles constants permettent de limiter les effets directionnels, et ces effets directionnels sont l'un des perturbateurs principaux, et pourtant mal connus des séries temporelles d'images optiques.

L'amplitude des variations directionnelles est visible sur les images ci-dessous, qui ont été acquises depuis un hélicoptère, avec les mêmes paramètres de prise de vue, excepté l'angle de vue. L'image de gauche a été acquise avec le soleil dans le dos, en rétrodiffusion, l'image de droite a été acquise à 90 degrés de la direction solaire.

 

Forêt de conifères observée depuis un hélicoptère, en conditions de rétrodiffusion (l'ombre de l'hélicoptère est visible). Noter que la réflectance diminue lorsqu'on s'éloigne de l'hélicoptère, au fur et à mesure que les ombres deviennent visibles Forêt de conifères observée à 90 degrés de la direction de rétrodiffusion. La réflectance est bien plus faible puisque les ombres des arbres sur le sol et sur la végétation sont visibles (Photos F.M. Bréon)

 

En fonction de l'angle sous lequel on observe une scène, et en fonction des angles solaires, les réflectances que nous allons mesurer peuvent varier fortement, on parle donc d' "anisotropie des réflectances", même si le terme consacré est "les effets directionnels". La manière dont elles varient dépend fortement du type de surface. Un désert bien plat présentera très peu d'anisotropie (cf figure ci-dessous, à gauche), on parle alors d'une surface quasi Lambertienne. En revanche une surface d'eau bien calme, se comportant comme un miroir présentera une très forte anisotropie dans la direction spéculaire. Enfin, la végétation présente un pic de réflexion dans la direction de rétrodiffusion (cf ci-dessous, à droite), pour laquelle les angles solaires et de visée sont quasiment identiques. On note sur cette courbe qu'à proximité de la direction de rétrodiffusion, on observe une variation des réflectances de 30 à 40% en quelques degrés. Ce phénomène est appelé le "hot spot'. Au total, en quarante degrés, on assiste à une variation d'un facteur 2 des réflectances. Ce phénomène est  donc loin d'être négligeable.

 

Evolutions des réflectances d'un désert, observées par POLDER, en fonction de l'angle de phase (écart angulaire avec la direction de rétrodiffusion). En rouge, la bande proche infra rouge, en vert, la bande rouge. Evolutions des réflectances d'une zone de cultures, observées par POLDER, en fonction de l'angle de phase (Courbes produites par F.M. Bréon). En rouge, la bande proche infra rouge, en vert, la bande rouge.

 

Les instruments spatiaux à large champ de vue, comme MODIS, SPOT/VEGETATION, MERIS, VIIRS, tout comme les satellites à haute résolution qui dépointent, comme SPOT, RapidEye, Pleiades, produisent donc des séries temporelles acquises sous des angles différents d'un jour à l'autre. Les séries temporelles de réflectances sont donc très bruitées, puisque des variations d'un facteur 2 des réflectances ne sont pas rares. Celles de NDVI le sont un peu moins car, comme on le voit ci-dessus, les deux bandes rouge et proche infra rouge ont un comportement similaire. De nombreuses méthodes de correction des effets directionnels ont été mises en place, j'en ai proposé une pour SPOT VEGETATION, mais malgré tout, les résultats sont loins d'être parfaits.

 

C'est pour éviter tous ces tracas que mes collègues du CESBIO, F. Cabot et G. Dedieu ont inventé le concept de RHEA, qui consiste à mettre le satellite sur une orbite avec un court cycle orbital (1 à 5 jours), afin de revoir un même site sous un angle de vue constant. Venµs découle de ce concept, tout comme Sentinel-2 et SPOT4 (Take5). Formosat-2 a lui aussi un cycle à un jour, même si cette caractéristique est surtout due à la petite taille de l'ile de Taïwan, qu'on peut donc observer tous les jours. Quant à Landsat, je ne sais pas si la minimisation des effets directionnels était une des contraintes qui ont abouti à la définition actuelle, mais c'était un bon choix.

 

Grâce aux satellites à prise de vue sous un angle constant, le bruit des séries temporelles est fortement diminué, comme le prouve la courbe ci-dessous, issue de l'observation d'un pixel de blé (24*24m) au Maroc, par Formosat-2. Les trous sont dus à la couverture nuageuse, et à des problèmes de prise de vue sur Formosat-2 (enregistreur déjà plein après le passage sur l'Europe).

Réflectances en fonction du temps pour une parcelle de blé au Maroc.

Finalement, le hot spot nous permet de deviner depuis laquelle des deux montgolfières la photo a été prise : c'est celle de gauche comme le prouve la photo entière ci dessous (prise par Arnaud Deramecourt, un collègue du CNES). La montgolfière de gauche est entourée d'un halo plus clair correspondant au hotspot, on est donc en condition de rétrodiffusion, avec l'observateur dos au soleil. L'observateur est donc dans la montgolfière de gauche.  Je pense qu'Arnaud voyait un peu de poésie dans ces deux ombres de montgolfières tendrement enlacées, et j'espère que vous pouvez toujours l’apprécier,  alors que pour ma part, par déformation professionnelle, je n'y vois qu'un affreux hot-spot.

Les produits de Niveau 3A

=>

Parmi les produits que nous préparons pour les traitements de données Sentinel-2 du pôle THEIA, les produits de Niveau 3A n'ont pas encore été abordés dans ce blog. Ceux-ci fournissent une synthèse mensuelle des produits de niveau 2A. Les produits de Niveau 3A devraient être bien utiles pour les raisons suivantes :

  • Le produit de Niveau 3A, fourni une fois par mois, représente un volume de données jusqu'à 6 fois inférieur à celui des niveaux 2A acquis pendant un mois.
  • Le produit de niveau 3 fournit un échantillonnage temporel régulier de l'évolution des réflectances, alors que l'échantillonnage du Niveau 2A est dépendant de la couverture nuageuse
  • Beaucoup de méthodes de traitement sont perturbées par la présence de trous dans les images dus à la couverture nuageuse. Le Niveau 3A vise à minimiser les pixels manquants.

 

Grâce au jeu de données SPOT4(Take5), nous avons pu expérimenter différentes méthodes de création des produits de Niveau 3A sur différents types de sites. C'est Mohamed Kadiri, au CESBIO, qui a pris en charge ce travail, financé par le budget CNES du projet THEIA, et avec le soutien de Mirelle Huc. La méthode consiste à calculer, pour chaque pixel, la moyenne des réflectances de surface des observations non nuageuses, obtenues pendant une demi période de N jours autour de la date T0 du produit de niveau 3A. Par exemple, dans l'exemple ci-dessous obtenu avec N=21, pour le produit du 15 mars (T0), les données utilisées couvrent la période du 24 février au 4 avril.

 

 

La moyenne calculée est une moyenne pondérée, qui attribue plus de poids :

  • aux images sans nuages
  • aux pixels situés loin de nuages
  • aux images avec peu d'aérosols
  • aux images proches de la date du produit de Niveau 3

 

Les poids et surtout la demi-période N ont une forte influence sur la qualité des résultats. Pour déterminer leurs valeurs, nous avons mis au point 3 critères de qualité :

  • le pourcentage de pixels dont la réflectance est manquante en raison des nuages
  • la différence du produit de Niveau 3A avec un produit de Niveau 2A faiblement nuageux acquis à quelques jours de la date centrale T0.
  • une mesure des artefacts. Les artefacts apparaissent en bordure des trous (dus aux nuages ou aux ombres) présents sur chacune des images.

 

Voici par exemple les performances obtenues sur le site de Versailles, site fortement nuageux lors du printemps 2013. Cette courbe confirme que malgré le mauvais  temps, Sentinel-2 devrait pouvoir fournir des produits quasiment sans nuages chaque mois sur ce genre de sites. Sur ce site, l'optimum de la durée de synthèse est compris entre 2*21 et 2*28 jours :

Performances obtenues sur le site de Versailles, pour plusieurs valeurs de la longueur de période N. En rouge, les trous résiduels (échelle à gauche), en jaune et vert, l'écart maximal à l'image centrale exprimé en réflectance, pour les 70% et 90% de pixels les meilleurs, et en bleu l'écart-type moyen des artefacts

 

Les produits de niveau 3A de Sentinel-2 devront aussi inclure une correction des effets directionnels, afin de pouvoir inclure dans un même produit de Niveau 3A des données issues de traces orbitales différentes, et donc acquises avec des angles de prise de vue différents. Enfin, en option, nous pourrons proposer une opération de bouchage des trous résiduels par interpolation temporelle ou en utilisant le comportement moyen de pixels similaires. Bref, il nous reste du pain sur la planche. Une comparaison avec la méthode classique de maximum de NDVI est fournie dans cet article.

The product level names, how they work ?

Simulation of Sentinel-2 products from Formosat-2 data (CESBIO)

 

Many of you are confused by the earth observation product names. Maybe detailing the logic behind the names will help you recall them. Here is how the THEIA Land Data Center product names were chosen.

  • we decided to use Sentinel-2 product names 1C, 2A, 3A, since we are sure Sentinel-2 will become a reference in high resolution earth observation.
    • Level 1C is a monodate ortho-rectified image expressed in TOA reflectance
    • Level 2A is a monodate ortho-rectified image expressed in surface reflectance, provided with a cloud/cloud shadow/snow/water mask
    • Level 3A is a monthly composite of Level2A Cloud/Cloud shadows free pixels
  • this nomenclature, defined by ESA and CNES, complies with the norms of the Committee on Earth Observation Satellites (CEOS)

 

CEOS naming rules are quite difficult to find, and I had searched them several times unsuccessfully. But recently, I found the list of members of the CEOS product harmonization committee, and two of its members (Frédéric Baret (INRA, France), and Kenneth McDonald (NOAA, USA)) replied very quickly to my questions.

 

The CEOS norm is based on a nomenclature defined by NASA in 1996, which is available on  Wikipedia :

 

Data Level NASA-EOSDIS Definition

http://science.nasa.gov/earth-science/earth-science-data/data-processing-levels-for-eosdis-data-products/
Level 0 Reconstructed, unprocessed instrument and payload data at full resolution, with any and all communications artifacts (e.g., synchronization frames, communications headers, duplicate data) removed.
Level 1A Reconstructed, unprocessed instrument data at full resolution, time-referenced, and annotated with ancillary information, including radiometric and geometric calibration coefficients and georeferencing parameters (e.g., platform ephemeris) computed and appended but not applied to Level 0 data.
Level 1B Level 1A data that have been processed to sensor units (not all instruments have Level 1B source data).
Level 2 Derived geophysical variables at the same resolution and location as Level 1 source data.
Level 3 Variables mapped on uniform space-time grid scales, usually with some completeness and consistency.
Level 4 Model output or results from analyses of lower-level data (e.g., variables derived from multiple measurements).

 

I do not know what you think of it, but my sense is that it is quite vague in some aspects (what is a  "sensor unit") and too directive in some other aspects : a resampling of data on a cartographic grid is only allowed at level 3. If a uses does not want to handle the always complex reprocessing of data, he has to use the level 3 data.

 

The CEOS norm provided below was clearly inspired by NASA's norm, but it allows a data resampling  starting at level 1, and the data can be expressed in Physical units and not only "Sensor units". The CEOS norm does not detail the sub-levels (1A, 2B...). However, the distinction between Level 1 and Level 2 is still a bit fuzzy, as it is not always easy to tell a physical unit from a geophysical unit. We often consider a top of atmosphere reflectance as a Level 1 product and a surface reflectance after atmospheric correction a Level 2 product. Is a surface reflectance a physical unit or a geophysical unit?

 

Data Level CEOS Definition

http://www.ceos.org/images/WGISS/Documents/Handbook.pdf

Level 0 Reconstructed unprocessed instrument data at full space time resolution with all available supplemental information to be used in subsequent processing (e.g., ephemeris, health and safety) appended.
Level 1 Unpacked, reformatted level 0 data, with all supplemental information to be used in subsequent processing appended. Optional radiometric and geometric correction applied to produce parameters in physical units. Data generally presented as full time/space resolution. A wide variety of sub level products are possible.
Level 2 Retrieved environmental variables (e.g., ocean wave height, soil moisture, ice concentration) at the same resolution and location as the level 1 source data.
Level 3 Data or retrieved environmental variables which have been spatially and/or temporally re-sampled (i.e., derived from level 1 or 2 products). Such re-sampling may include averaging and compositing.
Level 4 Model output or results from analyses of lower level data (i.e., variables that are not directly measured by the instruments, but are derived from these measurements).

 

Having had some difficulties finding the famous CEOS norm, I had build my own idea of what the CEOS norm should be, probably, from dscussions with colleagues during the POLDER.project preparation. So here is my own version of a norm ( but I know a personal norm is useless...)

 

Data Level Product nomenclature according to... myself
Level 0 Reconstructed unprocessed instrument data at full space time resolution with all available supplemental information to be used in subsequent processing (e.g., ephemeris, health and safety) appended.
Level 1 All pixels were acquired at the same time (within a few instants, during one satellite overpass), and their processing does not make assumptions on the nature of the observed pixel. Each pixel is processed in the same way, whatever it is made of (cloud, forest, sea...). The values are expressed in physical units or the product provides all the necessary information to convert the values to physical units. The product may be resampled onto a cartographic grid, or may just provide the necessary information to resample it.
Level 2 All pixels were acquired all at the same time (within a few instants, during one satellite overpass), but here, the processing may include assumptions on the nature of the pixel, for instance concerning the atmosphere, vegetation of sea state. The pixels may be processed differently according to their nature.
Level 3 The product is obtained from data acquired at different dates, often with different footprints. As for Level 2, processing may differ according to the pixel nature, and assumptions on this nature are allowed.

Level 3 products are often composite products based on the level 2 data acquired during a certain period of time (10 days, one month...)

 

The CEOS norm does not define sub-levels, and for that aspect, NASA's norm has some influence. For instance, with Sentinel-2, Level 1A and Level 1B exist as internal products and are quite similar to what is in NASA norm, while the Level 1C is ortho-rectified and expressed in top of atmosphere reflectance. The level 1C only will be distributed to standard users.

 

Sentinel-2 Mission requirement document also defines a level 2A, expressed in surface reflectance, and a Level 2B that provides biophysical variables such as LAI, fAPAR...However, none of these product will be operationally processed by Sentinel-2 ground segment. These products will be produced by THEIA Land Data Center, but not globally at first.

 

Finally, let's recall that several Earth observing missions do not respect the CEOS norms, often because their nomenclature was defined before the norm existed. It is the case of SPOT and followers (Pleiades, Rapid Eye...)