The Sentinel-2 tiles, how they work ?

=> 

The Sentinel-2 Level 1C products will be split into tiles. and I have searched a little how the naming convention of Sentinel-2 tiles works. I have found some interesting resources in Sentinel-2 website :

  • A User Handbook for Sentinel-2 products (which does not explain the naming convention of the tiles)
  • A kml file that provides the footprint of all the tiles, and their name.

 

 

 

 

Here is  what I have guessed :

  • The first 2 numbers of a tile name (such as 31TCJ) correspond to the UTM zone. The world is divided in 60 UTM zones of 8 degrees width in longitude, with numbers increasing towards the East. Zone 1 is over the Pacific Ocean.
  • Each zone is divided in latitude, by chunks of 6 degrees. This is represented by a letter, which increases from South to North.
  • And finally, each chunk is divided in 110 km tiles, with a 10 km overlap, from West to East, 4th Letter, and South to North, 5th Letter. What is not easy to guess is the fact that the forth and fifth letters are not reset for each chunk, but continue to increase when changing zone and chunk, but are reset to A when the counter exceeds Z.

 

For instance :

  • the tile in Toulouse, id 31TCJ. 31 is the UTM zone, T is the latitudinal chunk. C denotes the West-East tile position within the chunk and J the South-North position.
  • If you want to see the tile in the East of Toulouse, which includes Castres, it will be 31TDJ.
  • If you want to see the tile in the North East of Toulouse, which includes Aurillac, it will be 31TDK.
  • If you want to see the tile at the West of Toulouse, which includes the Armagnac region, it will be... 30TYP. 30T because it is a different UTM zone, and YP ... because this numbering is not practical  ?
  • The tile at the South of that one, for which we processed our first Level 2A products is  30TYN (because the O letter is excluded, to avoid confusion with 0)

 

Sorry for that, I would like to have a formula which guesses the tile name as a function of the longitude and latitude, but I am not able to figure out one. Has any of you heard of one ?

 

What I am happy with is the fact that tiles overlap by 10km. This ovelap means an increase of 21 % of the data volume, which is already large, but enables to process Level 2A products independently. It is very difficult to detect a cloud shadow when you do not see the corresponding cloud. And on the edge of the tiles, you will have shadows on clouds you do not see. But thanks to the overlap, the shadows will be well detected on the other overlapping tile.

 

A colleague of mine told me this grid was born in the brain of an American solldier (yes, soldiers have brains ). Here is a description, which sadly does not tell how the two last letters were defined.

 

 

This said, in 1789, during the French revolution, a project to devide French territory in tiles had been set-up by the Sieyes-Thouret comittee. The project was not appproved, but if it had been, I am quite sure that Lamartine would have found much more poetic names than those used for Sentinel-2.

 

 

 

 

Les tuiles de Sentinel-2, comment ça marche ?

=>

J'ai récemment cherché des informations sur la convention de nommage des tuiles sur lesquelles seront découpées les données de Niveau 1C de Sentinel-2, et voici ce que j'ai trouvé :

  • Un Manuel de l'utlisateur pour les produits de Sentinel-2 (qui n'explique pas vraiment la convention de nommage des tuiles)
  • Un fichier kml qui fournit l'emprise de chaque tuile ainsi que son nom. L'accès au fichier se trouve dans le menu "key resources" sur la droite, cliquer sur "Sentinel-2 Level 1C tiling grid"

A partir de ces deux informations, voici ce que j'ai pu deviner :

  • les 2 premiers numéros du nom d'une tuile (comme par exemple 31TCJ) correspondent à la zone UTM. Le monde est divise en 60 zones de 8 degrés de largeur en longitude, avec des numéros qui s'accroissent en allant vers l'est. La zone 1 se trouve sur l'océan pacifique..
  • Chaque zone est divisée en latitude, en bandeaux de 6 degrés. Cette division est représentée par une lettre, qui s’accroît du Sud au Nord. Les deux premiers chiffres, et la première lettre définissent donc une grille de cases UTM.
  • Chaque case de ce découpage est divisée en tuiles de 110*110 km², avec une superposition de 10 km des tuiles adjacentes. D'est en Ouest, c'est la 4e Lettre, du Sud au Nord, c'est la 5e lettre.  Ce qui est étonnant, c'est que ces lettres ne commencent pas à A pour chaque case de la grille UTM, mais continuent à croître de case en case, mais sont remises à la valeur A quand le compteur dépasse Z.

Quelques exemples :

  • La tuile de Toulouse porte le numéro, 31TCJ. 31 est la zone UTM, T désigne bandeau en latitude.. C correspond à la position de la tuile sur l'axe ouest-est, et J sur l'axe Sud Nord.
  • Si vous cherchez la tuile à l'Est de Toulouse, qui contient Castres, c'est 31TDJ.
  • Si vous cherchez la tuile au Nord Est de Toulouse, qui contient Aurillac, c'est 31TDK.

 

Il serait pratique d'avoir une formule pour déterminer la ou les tuiles qui contiennent un point de coordonnées (longitude et latitude) connues. Mais ça ne me parait pas évident. Il devrait être plus facile de créer un programme. Si quelqu'un a l'un ou l'autre, merci de nous le faire suivre !

 

Un collègue m'a dit que cette grille est née dans le cerveau d'un militaire américain (oui, les militaires ont un cerveau), en voici une description, pour laquelle on reste sur sa faim quand à la manière dont les deux dernières lettres ont été définies.

 

Ceci dit, en 1789, lors de la révolution Française, un découpage administratif en tuiles avait déjà été envisagé par le comité Sieyes-Thouret. Le projet n'a finalement pas été adopté, mais je pense que les sages auraient trouvé des noms plus poétiques que les noms de tuiles de Sentinel-2.

 

 

 

 

 

 

Retour sur la première image de Sentinel-2

=>

Vous êtes plusieurs à m'avoir parlé du défaut apparent, visible sur la partie maritime de la première image de Sentinel-2A. Je voudrais vous rassurer, ce n'est pas un défaut, mais un effet directionnel.

 

Je vous explique :
- pour chaque bande spectrale de Sentinel-2, il faut 30000 détecteurs pour couvrir le champ de 300 km à 10m de résolution. Ces 30000 détecteurs ne peuvent pas être construit en une seule barrette. Ce sont 10 ensembles de barrettes qui sont assemblés pour constituer la ligne de 30000 détecteurs. Pour des raisons d'encombrement, il n'est pas possible de juxtaposer ces barrettes, qui doivent être décalées dans le champ. Les barrettes paires visent légèrement vers l'avant, les barrettes impaires vers l'arrière, avec des différences d'angle de vue pouvant atteindre 3 dégrés dans certaines bandes.

 

Plan focal de Sentinel-2

 

Or sur la première image de Sentinel-2, nous observons sur la mer la réflexion spéculaire du soleil sur la mer, qui est une cible qui varie très rapidement en fonction de l'angle de vue, comme on peut le voir sur la photo-ci dessous. Bertrand Fougnie, du CNES, a calculé la réflectance observée au dessus de la tache de réflexion spéculaire, dans les conditions géométriques de la première image Sentinel-2. On observe bien d'assez fortes différences entre les détecteurs pairs et impairs. Ces différences dépendent de la vitesse du vent. Quand le vent est faible, la tache spéculaire couvre une plus petite surface et ses variations angulaires sont plus fortes.

 

Le "défaut" que nous observons est donc tout simplement lié à une différence d'angle d'observation. Il n'est d'ailleurs pas visible au dessus des terres, car les variations directionnelles des surfaces terrestres sont beaucoup plus lentes, excepté pour certaines conditions très particulières, qui ne devraient pas être visibles avec Sentinel-2.

 

Certains m'ont dit que celà pourrait donc poser des problèmes pour l'utilisation des données au dessus de l'eau. Je ne le pense pas, parce que si l'on veut pouvoir utiliser ces données sur l'eau, en présence de réflexion spéculaire, il faut être capable de corriger ce phénomène, et on peut donc tout à fait prendre en compte les différences d'angle.

High cloud detection using the cirrus band of LANDSAT 8 or Sentinel-2

Atmospheric absorption : in blue, the surface reflectance of a vegetation pixel, as a function of wavelength. In red, the reflectance of the same pixel at the top of atmosphere.  For a wavelength of 1.38 µm, water vapour totally absorbs the light that comes from the earth surface at sea level.

=>

The LANDSAT-8 and SENTINEL-2 satellites have a spectral band centered on the 1.38µm wavelength, which is designed to allow the detection of high altitude clouds. This spectral band corresponds to a strong absorption band of water vapour. its absorption is so strong that a photon emitted by the sun in this wavelength has nearly no chance to reach the earth surface, and even less to reach the satellite after that without being absorbed. The consequence is therefore that the surface is usually not visible on the images taken for the 1.38 µm channel.

 

 

However, as water vapour is concentrated in the lower layers of the atmosphere, the photons reflected by high clouds have much less chances to be absorbed. The 1.38 µm images display the higher parts of the atmosphere, and can be used to screen the high clouds, as it may be seen on the image below, on which a very large number of plane contrails may be observed (I counted 35, what about you ?)

 

This spectral band is therefore useful to detect these thin cirrus clouds which, without this band, were usually difficult to spot and used to degrade our reflectances time series.

 

LANDSAT 8 image taken over Paris in April 2013. On the left, the RGB color composite, and on the right the 1.38µm channel. The plane contrails can be easily detected, and given their number, one can see that we might have to choose whether to fly or to observe...

 

 

It is just sad that a simple threshold cannot do the detection with a 100% accuracy (but if it was the case, cloud detection would be easy for everyone, and we would not be useful anymore !)

First of all, the low clouds and the fog are very close to the surface and are not visible in that band. One has to use other criteria to detect them. Moreover, some mountains may emerge from the absorbing layers, all the more when the atmosphere is dry. A thresholding to detect high clouds must take into account the surface altitude, and for a better accuuracy, should take into account the waper vapour quantity and vertical repartition, which may be predicted using weather analyses.

 

Landsat 8 image taken above the center of Madagascar, in September 2013. On the left, the RGB color composite, and on the rght, the 1.38 µm channel. There is nearly no cloud on this image, but the surface reflectance is much greater than zero, because part or the region has an altitude above 1500m, and because the atmosphere was particularly dry on that day..


Finally, the 1.38µm channel is efficient to detect high clouds and especially thin cirrus, but has to be used with some precautions to avoid that all mountains be classified as high clouds. This is how we proceed in the MACCS processor.

 

 

 

 

 

 

La détection des nuages hauts avec la bande Cirrus de Landsat et Sentinel-2

Absorption atmosphérique. En bleu, la réflectance de surface pour un pixel couvert de végétation, en fonction de la longueur d'onde, en rouge la réflectance au sommet de l'atmosphère pour ce même pixel. A 1.38 µm, la vapeur d'eau absorbe totalement la lumière provenant de la surface au niveau de la mer.

=>

Les satellites LANDSAT-8 et SENTINEL-2 possèdent une bande spectrale centrée sur la longueur d'onde 1.38 µm, destinée à la détection des nuages hauts. Cette bande spectrale correspond à une forte bande d'absorption de la vapeur d'eau. Cette absorption est tellement forte qu'il est très peu probable qu'un photon émis par le soleil arrive à la surface terrestre, et si celà arrive, il est encore moins probable qu'il parvienne ensuite jusqu'au satellite sans être absorbé. Résultat, sur les images de cette bande, la surface n'est en général pas visible.

 

Par contre, comme la vapeur d'eau est en général concentrée dans les basses couches de l'atmosphère, les photons réfléchis par les nuages hauts ont beaucoup moins de chances d'être absorbés. Les images que l'on observe dans cette bande permettent donc d'observer la partie haute de l'atmosphère, et donc de détecter les nuages hauts, comme on le voit sur l'image ci dessous, sur laquelle de très nombreuses traces d'avions sont visibles (j'en compte 35, et vous ?).

 

Cette bande permet donc enfin de détecter, par un simple seuillage, ces fameux cirrus fins qui jusqu'ici étaient assez mal détectés, étaient parfois pris pour des aérosols, et en général perturbaient nos mesures.

 

Image LANDSAT 8 acquise sur Paris le 14/04/2013. A gauche, composition colorée RGB, à droite, image de la bande 1.38µm. A voir le nombre de traces d'avions, on se dit qu'il va falloir choisir entre voler ou observer la terre...

 

Malheureusement, un simple seuillage pour détecter les nuages n'est pas infaillible. (mais si c'était le cas, la détection de nuages serait à la portée de tous et nous ne servirions plus à rien...).

 

D'abord, les nuages bas et les brouillards sont souvent proches de la surface et donc ne sont pas visibles dans cette bande, il faut utiliser d'autres critères pour les détecter. De plus, les montagnes peuvent émerger de la couche absorbante, et ce d'autant plus que l'atmosphère est sèche. Le seuillage pour détecter les nuages hauts doit donc prendre en compte l'altitude de la surface et, pour bien faire, devrait aussi dépendre de la quantité de vapeur d'eau, qui peut être prédite par les modèles météorologiques.

 

Image LANDSAT 8 acquise au centre de Madagascar le 13/09/2013. A gauche, composition colorée RGB, à droite, image de la bande 1.38µm. Il n'y a quasiment aucun nuage sur cette image, mais la réflectance de surface ne s’annule pas en raison de l'altitude supérieure à 1500m sur la partie visible de l'image et de l'atmosphère particulièrement sèche ce jour là.


Bref, cette bande 1.38 µm est efficace pour détecter les nuages hauts et notamment les cirrus fins,  mais doit être employée avec quelques précautions afin d'éviter que toutes les montagnes soient systématiquement déclarées nuageuses. C'est ce que nous faisons dans la chaîne MACCS.

 

 

 

 

 

Phased orbits, how do they work ?

=>

As we are working to set a new Take5 experiment with SPOT5, here are some explanations of how it is possible to change the repeat cycle of a satellite from 26 days to 5 days, by just changing the satellite altitude by a couple of kilometres. There is nothing complicated behind that, just some simple arithmetic.

A phased orbit is an orbit for which the satellite repeats the same trajectory periodically. From its orbit at an altitude of 822 km, SPOT5, like its predecessors, has a cycle of 26 days. Every 26 days, it overflies the same places on earth. In 26 days, SPOT5 makes 369 revolutions around the earth. In 24 hours, a SPOT satellite runs through 369/26=14.19 orbits. Lowering its altitude by 2 km, the satellite slows a little, but the length of the circle it has to run along is reduced. It takes a little less time to make a revolution around the earth. The satellite does exactly 14.2 orbits per day.

 

Here are some of the orbits of SPOT4 (Take5), with some of the sites observed in France and North Africa during the experiment. The satellite started with the Cyan track, then the green one on the day after, then the yellow one on the next day and so on. 5 days later, it came back to the cyan orbit. You may see that it was possible to acquire a site on on the green track from the adjacent one on the cyan track.

 

14.2 orbits per days, is equivalent to 71 orbits in 5 days. After 71 orbits and 5 days exactly  SPOT4 was always at the same place during the Take5 experiment, and its cycled was changed from 26 to 5 days.

 

I have been also asked how the initial 26 days repeat cycle of SPOT5 was defined. The CNES engineers who designed it wanted to make it possible to observe each point on the earth from the vertical. As the SPOT satellites had a field of view of 116 km using both instruments, with a 26 days repeat cycle we had 116x26x14.19 = 43000km, just a little more than earth equator length. However, it was quickly seen that users did not ask for exactly vertical images and that the instruments were programmed mostly independently looking in different directions. However, the 26 days cycle was kept for all the SPOT satellites just as the High Speed Trains rail separation is related to the width of the hindquarters of a horse.

Finally, nothing would prevent from using the SPOT satellites from a 5 days repeat cycle orbit, which would not really change the ability to use the images how they are used now, but would allow new possibilities thanks to the possibility to observe users from constant viewing angles.

 

It is a little funny to observe that SPOT6 and SPOT7 do not use the initial SPOT orbit, and only fly at an altitude of 694 km but still with a 26 days phased orbit, this time obtained with 379/26=14.58 orbits per day. However, the justification cannot be the field of view, as this field of view is only 60 km.  But just by rising the orbit by a few kilometers, a 5 days orbit could be obtained

 

 

 

Systematic or On-Demand acquisitions ?

Example of Pleiades (CNES) acquisition plan. Among the sites requested, only those linked to the track by a yellow line are observed from this overpass.

=>

This post is an old one (last year), but I had not translated it.

 

The satellites observing the Earth at a high resolution may be divided in two categories according to their programming mode :

  • Satellites with On Demand Acquisition (SODA) :

Users ask the provider to program an image above their site. The provider collects all demands and optimises the acquisition plan so that a maximum of user requests are satisfied. The provider often charges an extra cost if the user needs an image at a precise date, and in zones where satellite image demand is high, a user is never sure to get the image he requested, unless he pays for a higher priority.

SPOT, Pleiades, Ikonos, Quickbird, Formosat-2, Rapid Eye and most radar systems are of  "SODA" type.

 

  • the Systematic Acquisition Satellites (SAS)

The image provider defines the zone to observe at the beginning or the satellite mission, and these zones are observed at each overpass of the satellite. In some cases (LANDSAT, Sentinel-2), the acquisition zones covers all lands, while on other cases (Venµs, SPOT4-(Take5)), the acquisition may only cover a few preselected sites.

 

Usually, SODA provide a better spatial resolution, while usually, the SAS provide a better temporal resolution. The SODA images must generally be purchased, since the resource is limited, while the SAS images are usually free of charge. There were periods when LANDSAT images were sold, but they encountered little commercial success, while their success is huge now that they are free of charge. Finally, the SODA are best suited to applications for which the acquisition date is not very important and for which a high resolution is essential, for instance urban studies or monitoring of ecological corridors, while the SAS are better suited to surfaces which quickly evolve, such as natural surfaces or farm lands, and they are best suited to automatically produce detailed land cover maps.

Oppositely to the US who, thanks to LANDSAT, have been working with SAS images, in Europe, users are much more trained to use SODA images such as the ones provided by SPOT. This situation should change radically, first with LANDSAT 8, which is much easier to access in Europe than LANDSAT 5, but above all with Sentinel-2, but the adaptation to this kind of data will require a lot of work and some time. New processing methods and new applications must be developed, which was one of the aim of SPOT4 (Take5) data set.

 

The directional effects, how they work

Riddle : from which of these two ballons was the picture taken ? Solution is at the end of the post.

Among Sentinel-2, LANDSAT, Venµs or SPOT4 (Take 5) features, there is one which is frequently forgotten: it is the possibility to observe all lands every 5th day under constant viewing angles. This way of observing limits the directional effects which are one of the most perturbing effects for reflectance time series. Yet, these effects are not always known by the users of time series of remote sensing images.

The way directional effects modify the reflectances is highly visible n the pictures below, which were taken from an helicopter with the same parameters except for the viewing angles. The image on the left was taken with the back to the sun, in the backscattering direction, while the picture on the right was taken at 90 degrees from that direction.

 

Conifer forest observed from an helicopter, in backscattering direction (the helicopter shadow is visible). Note the nearer from the helicopter shadow, the higher thereflectance, as tree shadow are no more visible Conifer forest observed from an helicopter, at 90 degrees from the backscattering direction. Reflectance is much lower since the shadows cast by the trees are visible as well as the shadows cast by the needles on the needles below (Pictures F.M. Bréon)

 

Depending on the observation angles and the solar angles, the reflectances measured by a satellite will change a lot, and we can therefore talk of "reflectance anisotropy", even if "directional effects" is the most frequently used locution. The way they change depends on the surface type : a flat sand desert will have little anisotropy (see next figure on the left), and the surface is said "quasi lambertian". On the contrary, a calm water surface will behave as a mirror, and will exhibit a very strong reflectance peak on the direction opposite to the sun direction, with regard to the vertical. Finally, vegetation always exhibits reflectance peak in the back scattering direction, for which the solar and viewing angles are quasi identical (see the plot below, on the right). On this plot, a reflectance variation greater than 30% can be observed in a couple of degrees. This phenomenon is called Hot Spot, and it is due to the fact that from this direction, one can only see the sunlit faces. Finally, the plot shows that for an angle variation of 40 degrees, the surface reflectance may change by a factor two. The directional effects should thus not be neglected.

 

Reflectances of a desert, observed by the POLDER instrument, as a function of the phase angle (angular distance to the backscattering direction). In red, the Near Infrared band, in green, the red band. Reflectances of a cropland, observed by the POLDER instrument, as a function of the phase angle (angular distance to the backscattering direction). In red, the Near Infrared band, in green, the red band.

 

The wide field of view instruments, such as MODIS, SPOT/VEGETATION, MERIS, VIIRS or Proba-V, and the high resolution ones with a pointing capability, such as SPOT, Rapid-Eye or Pleiades, deliver time series acquired under changing angles. Their reflectances time series are thus very noisy if no correction is attempted. NDVI time series are less noisy, because both red and Near Infrared spectral bands exhibit similar variations. Several correction methods were implemented, but their results are far from perfect.

 

In order to avoid all these troubles, my CESBIO colleagues F.Cabot and G. Dedieu invented the RHEA concept, which consists in putting the satellite on an orbit with a short repeat cycle (1 to 5 days), in order to observe a given site under constant angles. The VENµS satellite stems from this concept, and Sentinel-2 and SPOT4 (Take5) as well. Formosat-2 has also a repeat cycle of one day, but this feature is mainly due to the fact that the Taiwan island can be observed every day from that orbit. Regarding LANDSAT, I do not now if its designers wanted to minimize directional effects, but of course their choice was a good choice.

Thanks to the satellites that observe under constant viewing angles, the noise on time series is really decreased, as shown on the plot below, which gives the surface reflectances  of a wheat pixel (24*24 m²) in Morocco, observed by Formosat-2 during a whole growing season.

Surface reflectances as a funcion of time for a wheat pixel in Morocco.

Finally, it is the hot spot phenomenon, which gives the solution to the riddle above, since the balloon on the left is surrounded by a brighter halo. It means that the direction around the left ballon is the backscattering direction, and therefore that the observer was on this ballon. This is also proven by the complete photograph (taken by A. Deramecourt, a CNES colleague).  I think my colleague saw some poetry in the two balloons hugging, which I hope you still can  appreciate, while, because of my professional bias, I only see a mere hot-spot.

 

 

Les effets directionnels, comment ça marche ?

Devinette : depuis laquelle de ces deux montgolfières la photographie a t'elle été prise ? Solution à la fin de l'article.

=>

Parmi les caractéristiques de Sentinel-2, de LANDSAT, de Venµs ou de SPOT4 (Take 5), il y en a une qui est très fréquemment oubliée : c'est la possibilité d'observer toutes les terres avec une répétitivité des observations tous les 5 jours sous des angles constants. Les observations sous des angles constants permettent de limiter les effets directionnels, et ces effets directionnels sont l'un des perturbateurs principaux, et pourtant mal connus des séries temporelles d'images optiques.

L'amplitude des variations directionnelles est visible sur les images ci-dessous, qui ont été acquises depuis un hélicoptère, avec les mêmes paramètres de prise de vue, excepté l'angle de vue. L'image de gauche a été acquise avec le soleil dans le dos, en rétrodiffusion, l'image de droite a été acquise à 90 degrés de la direction solaire.

 

Forêt de conifères observée depuis un hélicoptère, en conditions de rétrodiffusion (l'ombre de l'hélicoptère est visible). Noter que la réflectance diminue lorsqu'on s'éloigne de l'hélicoptère, au fur et à mesure que les ombres deviennent visibles Forêt de conifères observée à 90 degrés de la direction de rétrodiffusion. La réflectance est bien plus faible puisque les ombres des arbres sur le sol et sur la végétation sont visibles (Photos F.M. Bréon)

 

En fonction de l'angle sous lequel on observe une scène, et en fonction des angles solaires, les réflectances que nous allons mesurer peuvent varier fortement, on parle donc d' "anisotropie des réflectances", même si le terme consacré est "les effets directionnels". La manière dont elles varient dépend fortement du type de surface. Un désert bien plat présentera très peu d'anisotropie (cf figure ci-dessous, à gauche), on parle alors d'une surface quasi Lambertienne. En revanche une surface d'eau bien calme, se comportant comme un miroir présentera une très forte anisotropie dans la direction spéculaire. Enfin, la végétation présente un pic de réflexion dans la direction de rétrodiffusion (cf ci-dessous, à droite), pour laquelle les angles solaires et de visée sont quasiment identiques. On note sur cette courbe qu'à proximité de la direction de rétrodiffusion, on observe une variation des réflectances de 30 à 40% en quelques degrés. Ce phénomène est appelé le "hot spot'. Au total, en quarante degrés, on assiste à une variation d'un facteur 2 des réflectances. Ce phénomène est  donc loin d'être négligeable.

 

Evolutions des réflectances d'un désert, observées par POLDER, en fonction de l'angle de phase (écart angulaire avec la direction de rétrodiffusion). En rouge, la bande proche infra rouge, en vert, la bande rouge. Evolutions des réflectances d'une zone de cultures, observées par POLDER, en fonction de l'angle de phase (Courbes produites par F.M. Bréon). En rouge, la bande proche infra rouge, en vert, la bande rouge.

 

Les instruments spatiaux à large champ de vue, comme MODIS, SPOT/VEGETATION, MERIS, VIIRS, tout comme les satellites à haute résolution qui dépointent, comme SPOT, RapidEye, Pleiades, produisent donc des séries temporelles acquises sous des angles différents d'un jour à l'autre. Les séries temporelles de réflectances sont donc très bruitées, puisque des variations d'un facteur 2 des réflectances ne sont pas rares. Celles de NDVI le sont un peu moins car, comme on le voit ci-dessus, les deux bandes rouge et proche infra rouge ont un comportement similaire. De nombreuses méthodes de correction des effets directionnels ont été mises en place, j'en ai proposé une pour SPOT VEGETATION, mais malgré tout, les résultats sont loins d'être parfaits.

 

C'est pour éviter tous ces tracas que mes collègues du CESBIO, F. Cabot et G. Dedieu ont inventé le concept de RHEA, qui consiste à mettre le satellite sur une orbite avec un court cycle orbital (1 à 5 jours), afin de revoir un même site sous un angle de vue constant. Venµs découle de ce concept, tout comme Sentinel-2 et SPOT4 (Take5). Formosat-2 a lui aussi un cycle à un jour, même si cette caractéristique est surtout due à la petite taille de l'ile de Taïwan, qu'on peut donc observer tous les jours. Quant à Landsat, je ne sais pas si la minimisation des effets directionnels était une des contraintes qui ont abouti à la définition actuelle, mais c'était un bon choix.

 

Grâce aux satellites à prise de vue sous un angle constant, le bruit des séries temporelles est fortement diminué, comme le prouve la courbe ci-dessous, issue de l'observation d'un pixel de blé (24*24m) au Maroc, par Formosat-2. Les trous sont dus à la couverture nuageuse, et à des problèmes de prise de vue sur Formosat-2 (enregistreur déjà plein après le passage sur l'Europe).

Réflectances en fonction du temps pour une parcelle de blé au Maroc.

Finalement, le hot spot nous permet de deviner depuis laquelle des deux montgolfières la photo a été prise : c'est celle de gauche comme le prouve la photo entière ci dessous (prise par Arnaud Deramecourt, un collègue du CNES). La montgolfière de gauche est entourée d'un halo plus clair correspondant au hotspot, on est donc en condition de rétrodiffusion, avec l'observateur dos au soleil. L'observateur est donc dans la montgolfière de gauche.  Je pense qu'Arnaud voyait un peu de poésie dans ces deux ombres de montgolfières tendrement enlacées, et j'espère que vous pouvez toujours l’apprécier,  alors que pour ma part, par déformation professionnelle, je n'y vois qu'un affreux hot-spot.

Les produits de Niveau 3A

=>

Parmi les produits que nous préparons pour les traitements de données Sentinel-2 du pôle THEIA, les produits de Niveau 3A n'ont pas encore été abordés dans ce blog. Ceux-ci fournissent une synthèse mensuelle des produits de niveau 2A. Les produits de Niveau 3A devraient être bien utiles pour les raisons suivantes :

  • Le produit de Niveau 3A, fourni une fois par mois, représente un volume de données jusqu'à 6 fois inférieur à celui des niveaux 2A acquis pendant un mois.
  • Le produit de niveau 3 fournit un échantillonnage temporel régulier de l'évolution des réflectances, alors que l'échantillonnage du Niveau 2A est dépendant de la couverture nuageuse
  • Beaucoup de méthodes de traitement sont perturbées par la présence de trous dans les images dus à la couverture nuageuse. Le Niveau 3A vise à minimiser les pixels manquants.

 

Grâce au jeu de données SPOT4(Take5), nous avons pu expérimenter différentes méthodes de création des produits de Niveau 3A sur différents types de sites. C'est Mohamed Kadiri, au CESBIO, qui a pris en charge ce travail, financé par le budget CNES du projet THEIA, et avec le soutien de Mirelle Huc. La méthode consiste à calculer, pour chaque pixel, la moyenne des réflectances de surface des observations non nuageuses, obtenues pendant une demi période de N jours autour de la date T0 du produit de niveau 3A. Par exemple, dans l'exemple ci-dessous obtenu avec N=21, pour le produit du 15 mars (T0), les données utilisées couvrent la période du 24 février au 4 avril.

 

 

La moyenne calculée est une moyenne pondérée, qui attribue plus de poids :

  • aux images sans nuages
  • aux pixels situés loin de nuages
  • aux images avec peu d'aérosols
  • aux images proches de la date du produit de Niveau 3

 

Les poids et surtout la demi-période N ont une forte influence sur la qualité des résultats. Pour déterminer leurs valeurs, nous avons mis au point 3 critères de qualité :

  • le pourcentage de pixels dont la réflectance est manquante en raison des nuages
  • la différence du produit de Niveau 3A avec un produit de Niveau 2A faiblement nuageux acquis à quelques jours de la date centrale T0.
  • une mesure des artefacts. Les artefacts apparaissent en bordure des trous (dus aux nuages ou aux ombres) présents sur chacune des images.

 

Voici par exemple les performances obtenues sur le site de Versailles, site fortement nuageux lors du printemps 2013. Cette courbe confirme que malgré le mauvais  temps, Sentinel-2 devrait pouvoir fournir des produits quasiment sans nuages chaque mois sur ce genre de sites. Sur ce site, l'optimum de la durée de synthèse est compris entre 2*21 et 2*28 jours :

Performances obtenues sur le site de Versailles, pour plusieurs valeurs de la longueur de période N. En rouge, les trous résiduels (échelle à gauche), en jaune et vert, l'écart maximal à l'image centrale exprimé en réflectance, pour les 70% et 90% de pixels les meilleurs, et en bleu l'écart-type moyen des artefacts

 

Les produits de niveau 3A de Sentinel-2 devront aussi inclure une correction des effets directionnels, afin de pouvoir inclure dans un même produit de Niveau 3A des données issues de traces orbitales différentes, et donc acquises avec des angles de prise de vue différents. Enfin, en option, nous pourrons proposer une opération de bouchage des trous résiduels par interpolation temporelle ou en utilisant le comportement moyen de pixels similaires. Bref, il nous reste du pain sur la planche. Une comparaison avec la méthode classique de maximum de NDVI est fournie dans cet article.