Comme sur des roulettes, mais pas une sinécure.

=>

J'avais écrit que l'expérience SPOT4 (Take 5) se déroulait comme sur des roulettes, mais il faut se rendre à l'évidence, obtenir une ortho-rectification parfaite des images SPOT4 n'est pas une sinécure.

 

Ce graphe montre l'erreur de localisation selon les axes x (est-ouest) et y (Nord-sud) de chaque image SPOT4(Take5). Un fort biais vers l'est est observé, particulièrement durant la dernière décade de février et la deuxième décade de mars. Cette erreur est corrigée lors de l'ortho-rectification.

L'erreur de localisation d'une image est l'écart moyen entre la position réelle des pixels d'une image, et la position calculée en connaissant la position du satellite, son orientation, la position du miroir et la position des détecteurs dans l'instrument. Alors que la performance de localisation des images SPOT4 habituellement mesurée par le CNES a un écart-type de 450 m RMS, nous avons rencontré plus d'une cinquantaine de scènes avec des erreurs de localisation supérieures à 1000 mètres. La plupart d'entre elles ont été acquises à proximité de l'Europe.

 

Nous n'avons pas encore d'explication pour ce problème, qui reste toutefois largement dans les spécifications de la mission SPOT4 (localisation à 1500m RMS). Sur les satellites récents, l'orientation du satellite (dans le jargon spatial, on parle d'"attitude") est mesurée très précisément par des senseurs stellaires. Ces senseurs sont de petits instruments optiques qui repèrent dans le ciel des étoiles dont la position est connue, ce qui permet de déterminer l'attitude du satellite, comme le promeneur égaré, de nuit, peut utiliser l'étoile polaire pour s'orienter. Mais lors de la conception de SPOT 4, au début des années 1990, ces senseurs stellaires n'étaient pas encore opérationnels, et on utilisait un autre type de senseur, le senseur terrestre. Celui ci fonctionne dans l'infra-rouge thermique. Il balaye l'horizon de la terre, et en déduit la position du centre de la terre. Sa précision est cependant perturbée par la présence ou non de nuages d'altitude qui vont modifier légèrement l'horizon, d'où une précision inférieure à celle des senseurs stellaires.

Précision de superposition multi-temporelle des données SPOT4(Take5) acquises sur Maricopa, site de la NASA acquis deux fois tous les 5 jours sous deux angles différents. La précision est exprimée pour 80% des pixels, en fraction de pixels. Pour les 20% de pixels restants, il s'agit en général davantage d'erreurs de mesure que d'erreur de superposition. Ce site est observé sous deux angles différents, la performance de superposition est meilleure pour les images vues sous le même angle

 

 

Même graphique pour le site du JRC situé en Tanzanie. Ce site présente une couverture nuageuse bien plus importante que Maricopa, mais la performance est similaire.

Bref, la localisation des données SPOT4 (Take5) n'est pas excellente, et nous devons donc aller chercher la position réelle des points d'appuis à plus de deux kilomètres. Cette recherche à grande distance augmente la probabilité de trouver des voisinages qui se ressemblent sans correspondre aux mêmes endroits. Nous avons donc, dans les points d'appuis que nous prenons, une proportion de points d'appuis erronés beaucoup plus importante que d'habitude. Il peut donc arriver que le recalage des données soit imprécis, heureusement assez rarement.

 

Depuis plus d'un mois, avec l'aide de quelques collègues du CNES (Cécile Déchoz, Stéphane May, Sylvia Sylvander), nous cherchons le meilleur jeu de paramètres qui permettrait de minimiser la proportion de mauvais points d'appuis, tout en conservant suffisamment de points d'appuis pour pouvoir ortho-rectifier des images très nuageuses. Les résultats s'améliorent (cf ci-dessus), mais laissent encore de temps en temps passer quelques erreurs.

 

Exemple d'image présentant encore des erreurs de superposition supérieures au pixel. La surface est très uniforme, exceptés les cours d'eau dont les limites peuvent varier. L'image de référence issue de LANDSAT est elle aussi nuageuse et date de 8 ans...

Finalement, dans la plupart des cas, la superposition des données Take5 devrait être tout à fait correcte (80% des pixels avec un écart inférieur à 0.5 pixels), mais il est possible que quelques images soient un peu décalées, surtout en présence de nuages. Les diagnostics de l'ortho-rectification permettent d'éliminer ces images, qui ne pourront donc pas être livrées.

 

Land cover map production: how it works

=>

Land cover and land use maps

Although different, the terms land use and land cover are often used as synonymous. From Wikipedia Land cover is the physical material at the surface of the earth. Land covers include grass, asphalt, trees, bare ground, water, etc. There are two primary methods for capturing information on land cover: field survey and analysis of remotely sensed imagery. and Land use is the human use of land. Land use involves the management and modification of natural environment or wilderness into built environment such as fields, pastures, and settlements. It also has been defined as "the arrangements, activities and inputs people undertake in a certain land cover type to produce, change or maintain it" (FAO, 1997a; FAO/UNEP, 1999).


A precise knowledge of land use and land cover is crucial for many scientific studies and for many operational applications. This accurate knowledge needs frequent information updates, but may also need to be able to go back in time in order to perform trend analysis and to suggest evolution scenarios.

 

Satellite remote sensing offers the possibility to have a global point of view over large regions with frequent updates, and therefore it is a very valuable tool for land cover map production.

 

However, for those maps to be available in a timely manner and with a good quality, robust, reliable and automatic methods are needed for the exploitation of the available data.

 

 

 

Classical production approaches

The automatic approaches to land cover map production using remote sensing imagery are often based on image classification methods.

 

This classification can be:

  • supervised: areas for which the land cover is known are used as learning examples;
  • unsupervised: the image pixels are grouped by similarity and the classes are identified afterwards.

Supervised classification often yields better results, but it needs reference data which are difficult or costly to obtain (field campaigns, photo-interpretation, etc.).

 

 

 

What time series bring

Until recently, fine scale land cover maps have been nearly exclusively produced using a small number of acquisition dates due to the fact that dense image time series were not available.

 

The focus was therefore on the use of spectral richness in order to distinguish the different land cover classes. However, this approach is not able to differentiate classes which may have a similar spectral signature at the acquisition time, but that would have a different spectral behaviour at another point in time (bare soils which will become different crops, for instance). In order to overcome this problem, several acquisition dates can be used, but this needs a specific date selection depending on the map nomenclature.

 

For instance, in the left image, which is acquired in May, it is very difficult to tell where the rapeseed fields are since they are very similar to the wheat ones. On the right image, acquired in April, blooming rapeseed fields are very easy to spot.

 

May image. Light green fields are winter crops, mainly wheat and rapeseed. But which are the rapeseed ones?

April image. Blooming rapeseed fields are easily distinguished in yellow while wheat is in dark green.

 

If one wants to build generic (independent from the geographic sites and therefore also from the target nomenclatures) and operational systems, regular and frequent image acquisitions have to be ensured. This will soon be made possible by the Sentinel-2 mission, and it is right now already the case with demonstration data provided by Formosat-2 and SPOT4 (Take 5). Furthermore, it can be shown that having a high temporal resolution is more interesting than having a high spectral diversity. For instance, the following figure shows the classification performance results (in terms of  \kappa index, the higher the better) as a function of the number of images used. Formosat-2 images (4 spectral bands) and simulated Sentinel-2 (13 bands) and Venµs (12 bands) data have been used. It can be seen that, once enough acquisitions are available, the spectral richness is caught up by a fine description of the temporal evolution.

kappaVFS.png

 

 

What we can expect from Sentinel-2

Sentinel-2 has unique capabilities in the Earth observation systems landscape:

  • 290 km. swath;
  • 10 to 60 m. spatial resolution depending on the bands;
  • 5-day revisit cycle with 2 satellites;
  • 13 spectral bands.

Systems with similar spatial resolution (SPOT or Landsat) have longer revisit periods and fewer and larger spectral bands. Systems with similar temporal revisit have either a lower spatial resolution (MODIS) or narrower swaths (Formosat-2).

 

The kind of data provided by Sentinel-2 allows to foresee the development of land cover map production systems which should be able to update the information monthly at a global scale. The temporal dimension will allow to distinguish classes whose spectral signatures are very similar during long periods of the year. The increased spatial resolution will make possible to work with smaller minimum mapping units.

 

However, the operational implementation of such systems will require a particular attention to the validation procedures of the produced maps and also to the huge data volumes. Indeed, the land cover maps will have to be validated at the regional or even at the global scale. Also, since the reference data (i.e. ground truth) will be only available in limited amounts, supervised methods will have to be avoided as much as possible. One possibility consists of integrating prior knowledge (about the physics of the observed processes, or via expert rules) into the processing chains.

 

Last but not least, even if the acquisition capabilities of these new systems will be increased, there will always be temporal and spatial data holes (clouds, for instance). Processing chains will have to be robust to this kind of artefacts.

 

 

Ongoing work at CESBIO

 

Danielle Ducrot, Antoine Masse and a few CESBIO interns have recently produced a a large land cover map over the Pyrenees using 30 m. resolution multi-temporal Landsat images. This map, which is real craftsmanship, contains 70 different classes. It is made of 3 different parts using nearly cloud-free images acquired in 2010.

 

70-class land cover map obtained from multi-temporal Landsat data.

In his PhD work, Antoine works on methods allowing to select the best dates in order to perform a classification. At the same time, Isabel Rodes is looking into techniques enabling the use of all available acquisitions over very large areas by dealing with both missing data (clouds, shadows) and the fact that all pixels are not acquired at the same dates.

 

These 2 approaches are complementary: one allows to target very detailed nomenclatures, but needs some human intervention, and the other is fully automatic, but less ambitious in terms of nomenclature.

 

A third approach is being investigated at CESBIO in the PhD work of Julien Osman: the use of prior knowledge both quantitative (from historical records) and qualitative (expert knowledge) in order to guide the automatic classification systems.

 

We will give you more detailed information about all those approaches in coming posts on this blog.

La production de cartes d'occupation du sol, comment ça marche?

=>

Les cartes d'occupation du sol

D'après Wikipédia, l'occupation du sol désigne pour la FAO (1998) "la couverture (bio-)physique de la surface des terres émergées" et donc le type d'usage (ou de non-usage) fait des terres par l'Homme. La mosaïque paysagère est cartographiée en identifiant les types homogènes de milieux (ex : zones artificialisées, zones agricoles, forêts ou landes, zones humides, etc.).


La connaissance précise de cette occupation du sol est un enjeu crucial pour beaucoup de travaux de recherche et pour de nombreuses applications opérationnelles. Une connaissance précise demande une mise à jour fréquente de ces informations, mais peut aussi nécessiter de remonter dans le temps pour faire une analyse des tendances et proposer des scénarios d'évolution.

 

La possibilité offerte par la télédétection spatiale d'accéder à une vue d'ensemble de grandes régions de façon récurrente constitue donc un atout majeur pour la production de cartes d'occupation du sol.

 

Cependant, pour que ces cartes soient disponibles dans des délais raisonnables et avec une qualité suffisante, il est nécessaire de disposer de méthodes automatiques robustes et fiables, capables d'exploiter de façon efficace les données disponibles.

 

 

Les approches classiques de production

Les approches automatiques de production de cartes d'occupation du sol à partir d'images de télédétection sont souvent basées sur des méthodes de classification d'images.

 

Cette classification peut être :

  • supervisée : on utilise des zones pour lesquelles on connaît l'occupation du sol comme des exemples pour un apprentissage;
  • non supervisée : on regroupe les pixels de l'image par similarité et on reconnait les classes ensuite.

La classification supervisée fournit souvent de meilleurs résultats, mais elle nécessite des données de référence pour l'apprentissage qui sont coûteuses à obtenir (campagnes sur le terrain, photo-interprétation, etc.). C'est cependant cette approche qui est utilisée dans les travaux actuels du CESBIO, comme par exemple l'édition d'une carte d'occupation des sols annuelle sur la France (avec LANDSAT 8, en attendant Sentinel-2).

 

 

L'apport du multi-temporel

Jusqu'à récemment, les cartes d'occupation du sol à échelle cartographique fine ont été presque exclusivement produites à partir d'un petit nombre de dates et ceci principalement à cause du manque de séries multi-temporelles denses fournies par des capteurs à haute résolution spatiale. L'accent était donc mis sur la richesse spectrale des images pour distinguer les différentes classes d'occupation du sol.

 

Cependant, cette approche "monodate" ne permet pas de distinguer des classes qui auraient la même signature spectrale à une date d'acquisition donnée, mais une signature différente à une autre date (des sols nus qui deviendront des cultures différentes plus tard). Pour pallier à cette difficulté, plusieurs dates peuvent être utilisées, mais cela demande une sélection spécifique de dates en fonction de la nomenclature visée.

 

Par exemple, dans l'image de gauche, acquise au mois de mai, il est très difficile de dire où sont les parcelles de colza et quelles sont les parcelles de blé. Sur l'image de droite, acquise au mois d'avril, les parcelles de colza en fleur sont très faciles à distinguer des parcelles de blé bien vert.

 

]

Image du mois d'avril. Les parcelles de colza en pleine floraison sont parfaitement visibles, elles apparaissent en jaune Image du mois de mai. Les parcelles vert clair sont des cultures d'hiver, blé ou colza principalement. Où sont les champs de Colza ?

 

Si l'on souhaite mettre en place des systèmes opérationnels et génériques (indépendants des sites cartographiés et donc des nomenclatures visées), il faut assurer une acquisition d'images fréquente et régulière. Ceci sera rendu possible par la mission Sentinel-2, et déjà, sur les données de démonstration issues de Formosat-2 et SPOT4 (Take 5). En plus, on peut montrer que le fait de disposer d'une haute résolution temporelle peut être plus intéressant que de disposer d'une grande diversité spectrale. Par exemple, la figure suivante montre des résultats de performances de classification (indice  \kappa ; plus il est élevé, mieux c'est) en fonction du nombre de dates utilisées pour la classification. On a utilisé des images Formosat-2 (4 bandes spectrales) et des simulations Vénµs (12 bandes) et Sentinelle-2 (13 bandes). On constate qu'à partir d'un nombre suffisant de dates utilisées, la richesse spectrale de Vénµs et Sentinelle-2 est rattrapée par une description fine du comportement temporel obtenu avec le simple capteur Formosat-2.

kappaVFS.png

 

 

Ce qui peut être attendu de Sentinelle-2

Sentinelle-2 a des caractéristiques uniques dans le paysage des systèmes d'observation de la Terre :

  • fauchée de 290 km.;
  • résolution spatiale de 10 à 60 m. en fonction des bandes spectrales;
  • revisite de 5 jours (avec 2 satellites);
  • 13 bandes spectrales.

Les systèmes de résolution spatiale comparable (SPOT ou Landsat) ont des revisites plus faibles et moins de bandes spectrales. Les systèmes de revisite similaire, ont une résolution spatiale plus faible (MODIS) ou des fauchées réduites (Formosat-2).

 

Avec le type de données fournies par Sentinelle-2 il est possible d'envisager le développement de systèmes de production de cartes d'occupation du sol capables d'actualiser les informations une fois par mois à l'échelle globale. La dimension temporelle, permettra de distinguer des classes dont les signatures spectrales sont très proches pendant une grande partie de l'année. La résolution spatiale améliorée permettra de travailler avec des unités minimales de cartographie plus fines.

 

Cependant, la mise en oeuvre opérationnelle de tels systèmes nécessitera une attention particulière aux besoins de validation des produits générés et aux énormes volumes de données à traiter.

 

Les cartes d'occupation produites par un tel système devront suivre une validation à échelle régionale, voire globale. De plus, comme les données de référence seront limitées, il faudra se passer au maximum de techniques d'apprentissage et essayer d'intégrer des connaissances a priori (physiques ou expertes) dans les chaînes de traitement.

 

Enfin, même si la capacité d'acquisition des nouveaux systèmes spatiaux sera améliorée, il y aura toujours des trous dans les données (nuages, par exemple). Les chaînes de traitement devront donc savoir combler ces trous, ou en tout cas y être robustes.

 

 

Les travaux du CESBIO

Danielle Ducrot, Antoine Masse et de nombreux stagiaires du CESBIO ont fabriqué récemment une grande carte d'occupation des sols sur la chaîne des Pyrénées à partir de données multi-temporelles de LANDSAT à 30 mètres de résolution. Cette carte, qui représente un vrai travail d'orfèvre, contient 70 classes. Elle a été réalisée en trois parties à partir des images peu nuageuses collectées par les satellites Landsat au cours de l'année 2010.

 

 

Carte d'occupation des sols à 70 classes obtenue à partir de séries temporelles d'images LANDSAT.

Dans sa thèse, Antoine travaille sur les méthodes qui permettent de sélectionner les meilleures dates pour réaliser une classification. De son côté, Isabel Rodes s'intéresse aux méthodes qui permettent d'utiliser toutes les images disponibles sur des zones très étendues tout en gérant les données manquantes (nuages, ombres) et le fait que tous les pixels ne sont pas vus aux mêmes dates. Ces 2 approches sont complémentaires : l'une permet de travailler avec des nomenclatures très détaillées, mais demande l'intervention d'opérateurs humains, l'autre est complètement automatique, mais moins ambitieuse en termes de détails de la classification.

 

Une troisième approche est explorée au CESBIO dans le cadre de la thèse de Julien Osman : l'utilisation de connaissances a priori de type quantitatif (à partir de données historiques) et qualitatif (connaissances d'experts thématiques) pour guider les systèmes de classification automatique.

 

Nous vous décrirons plus en détails ces différentes approches dans des billets à venir.

 

 

Nous jouerons Take5 jusqu'à la fête de la musique !

=>

La fin de l'expérience SPOT4(Take5) était initialement prévue le 28 mai, mais le CNES a accepté de prolonger l'expérience de près d'un mois, jusqu'à la fin du printemps. SPOT4 prendra donc ses dernières images autour du 21 Juin.

 

Cette prolongation nous permettra d'observer, en France, la fin du cycle des cultures d'hiver et le début des cultures d'été, d'observer la fonte de la neige tombée en abondance cet hiver en France, et de disposer de davantage de données pour valider nos algorithmes. Au total, nous aurons donc près de 5 mois de données.

 

Un grand merci à nos collègues du CNES !

 

We will play Take5 until the end of Spring !

=>

The end of SPOT4 (Take5) experiment was initially planned the 28th of May, but CNES just decided to extend it until the end of Spring.  The last SPOT4 images should be acquired around June the 21st. In France, and in many other countries, June 21st is the "Music Day" : we will be playing Take5 'til the Music Day.

 

In France, this extra time will enable us to monitor the end of winter crops and the start of summer crops, we will also see the end of snow melt in the mountains, and we will have more data to validate our algorithms. The total duration of the experiment will be around 5 months

 

Many thanks to our CNES colleagues !

Offre spéciale / Special offer

 

Non, nous n'avons pas encore décidé de financer nos travaux par la publicité... Il s'agit simplement de vous rappeler que la communication est une part importante du projet SPOT4 (Take5), afin de montrer tout l'intérêt des séries temporelles. Ce blog peut non seulement présenter les excellents (hum) résultats, côté CNES et CESBIO, mais aussi les applications des séries temporelles.

Donc, les utilisateurs qui nous enverront pour ce blog des textes présentant leurs projets auront accès à un traitement dédié et anticipé des séries temporelles SPOT4(Take5) sur leurs sites.

 

Certains d'entre vous l'ont déjà fait :

 

No, we did not decide yet to fund our projects via adverts !

But, I would like to recall that communication is a key element of SPOT4 (Take5) project to help promote the use of high resolution time series. This blog can not only show the excellent (?) results obtained at CNES and CESBIO, but can also display your projects to use time series.

Users who will send us a description of their project with SPOT4 (Take5) for this blog will receive a dedicated processing and anticipated delivery of preliminary data above their site.

 

The atmospheric effects : how they work.

=>

Earth surface observations by space-borne optical instruments are disrupted by the atmosphere. Two atmospheric effects combine to alter the images :

  • the light absorption by air molecules
  • the light scattering by molecules and aerosols

Here are two SPOT4 (Take5) images, acquired with a time gap of 5 days above Morocco. Because of atmospheric effects, the second image has less contrast and is"hazier" than the first one.

 

 

Light Absorption :
Atmospheric absorption : in blue, the surface reflectance of a vegetation pixel, as a function of wavelength. In red, the reflectance of the same pixel at the top of atmosphere.

The air molecules absorb the light within thin absorption bands. Within these absorption bands, the reflectance measured by the satellite is lessened, and in some cases, the light may be completely absorbed and the apparent reflectance at the top of atmosphere (TOA) is zero.  (for instance, at 1.4µm, in the figure on the right. Such a property is used to detect high clouds with Sentinel-2 or Landsat-8).

Thankfully, the satellite designers usually choose to locate the spectral bands away from strong absorption bands (but beware of satellite designers ;-) ). Within the satellite channels, the absorption is generally sufficiently low so that an approximate knowledge of the absorbent abundance is enough to obtain an accurate correction of absorption. Information on absorbing gases (ozone, water vapour) concentration may be found in weather analyses.

 

Light scattering

The air molecules scatter the light. A photon that passes close to a molecule will be deflected in another direction. As the air molecules are very small compared to visible light wavelengths, they will mainly scatter short wavelengths (in the blue range). The blue sky results from the scattering of sun light by air molecules, since the blue light in the sun spectrum is much scattered while the other wavelengths are mainly transmitted to the ground. A cloud also scatters the light, but its large particles (droplets, crystals) scatter all wavelengths, which explain its white colour.

 

Apart from clouds and air molecules, scattering may be due to aerosols. Aerosols are particles of diverse nature (sulphates, soot, dust...), suspended in the atmosphere. Their abundance, type and size are extremely variable, and their effect on light is also variable. Small aerosols will mostly scatter blue light, while larger aerosols will scatter all wavelengths. Some aerosols may also absorb light. All this variability makes the correction of their effect very tricky.

The above video, provided by NASA, gives an idea of the way aerosol properties may change from one day to the other, within a two years period. The colour gives an idea of aerosol types, while the colour intensity provides the aerosol optical thickness.

Simplified model :

In a very simplified way, atmospheric effects may be modelled as follows :

ρTOA= Tgatm +Td ρsurf)

where :

  • ρTOA is the Top of Atmosphere reflectance
  • ρsurf is the earth surface reflectance
  • ρatm is the atmospheric reflectance
  • Tg is the air molecules (gazeous) transmission (Tg<1)
  • Td is the transmission due to scattering (Td<1)

When aerosol quantity increases, ρatm increases while Td decreases. These two variables also depend on view and sun angles. The closer to vertical, the lower value of ρatm and the higher value of Td .

 

Adjacency effects :

The above model should only be applied to a uniform landscape. But above a standard landscape, a heavy loaded atmosphere will also blur the images. This is explained in another post.

Models, corrections.

Several models may be used to perform atmospheric corrections. For, approximate corrections, the SMAC model should be one of the simplest. SMAC be downloaded from the CESBIO site. The difficulty in using any atmospheric correction model lies in providing the necessary information on aerosol properties. We will talk about that in another post.

Other more accurate models may be used. In our case, in the MACCS processor, we pre-compute "Look-up Tables " using an accurate radiative transfer code (Successive Orders of Scattering), that simulates the light propagation through the atmosphere. But the use of a complex model is only justified if it is possible to obtain an accurate knowledge of the aerosol optical properties.

Les effets atmosphériques, comment ça marche ?

=>

L'atmosphère perturbe l'observation de la surface terrestre depuis un instrument optique sur un satellite. Deux effets atmosphériques se conjuguent pour altérer les images :

  • l'absorption du rayonnement par les molécules de l'air
  • la diffusion du rayonnement par les molécules et les aérosols (sans compter les nuages)

 

Voici deux images SPOT4 (Take5), acquises à 5 jours d'écart, au dessus du Maroc, avec des effets atmosphériques plus prononcés sur la deuxième date en raison d'une plus grande quantité d'aérosols en suspension dans l'atmosphère. La deuxième image est moins nette et plus "laiteuse" que la première.

 

L'absorption :
Absorption atmosphérique. En bleu, la réflectance de surface pour un pixel couvert de végétation, en fonction de la longueur d'onde, en rouge la réflectance au sommet de l'atmosphère pour ce même pixel. Les bandes d'absorption bien visibles.

Les molécules absorbent le rayonnement sur des bandes d'absorption souvent très étroites. A ces longueurs d'onde, le rayonnement est d'autant plus absorbé que l'abondance des molécules absorbantes est importante. La réflectance observée par le satellite est donc atténuée, et dans certains cas, pour de très fortes bandes d’absorption, le rayonnement peut même être totalement absorbé, et la réflectance observée est nulle (par exemple, à 1.4µm dans la figure ci-jointe, on se servira de cette propriété pour la détection des nuages hauts, avec Landsat-8 ou Sentinel-2).

 

Heureusement, les concepteurs des satellites choisissent des bandes spctrales éloignées des fortes absorptions (mais méfiez vous des concepteurs de satellites ;-) ). Dans les bandes retenues, l'effet de l’absorption est en général suffisamment faible pour qu'une connaissance peu précise de l'abondance de l'élément absorbant suffise à produire une correction précise de l'atténuation. L'information sur l'abondance des différentes molécules peut-être fournie par des analyses météorologiques (ozone, vapeur d'eau...).

 

La diffusion :

Les molécules de l'air diffusent le rayonnement lumineux. Un photon passant à proximité d'une molécule va voir sa trajectoire déviée dans une autre direction. Comme les molécules de l'air sont très petites, comparées aux longueurs d'onde du visible, elles vont avoir tendance à surtout dévier les courtes longueurs d'onde plutôt que les grandes longueur d'onde. Le ciel bleu résulte de la diffusion du rayonnement solaire par les molécules de l'air, puisque la lumière bleue envoyée par le soleil a une forte tendance à être déviée dans une autre direction, alors que les autres longueurs d'onde sont mieux transmises. Un nuage diffuse aussi la lumière, mais comme il est composé de grosses particules (gouttes ou cristaux), il dévie de la même manière toutes les longueurs d'onde, d'où sa couleur blanche.

 

En dehors des molécules et des nuages, la diffusion peut aussi être due aux aérosols : ceux-ci sont des particules de nature diverse (sulfates entourés d'eau, suies, poussières...), en suspension dans l'atmosphère. Leur quantité, leur type et leur taille sont extrêmement variables, et donc leur effet sur le rayonnement peut être très variable. Les aérosols de petite taille diffusent surtout la lumière bleue, alors que les aérosols de grande taille diffusent toutes les longueurs d'onde. Certains aérosols peuvent aussi absorber une partie du rayonnement. La variabilité de la quantité et du type d'aérosols rend la correction de leurs effets très complexe.

La vidéo ci-dessous, fournie par la NASA, donne une idée des évolutions des quantités et types d'aérosols jour par jour sur près de deux ans (la couleur indique différents types d'aérosols).

 

 

Modélisation simplifiée :

D'une manière très simplifiée (trop simplifiée pour les puristes), on peut modéliser les effets atmosphériques de la manière suivante :

ρTOA= Tgatm +Td ρsurf)

  • ρTOA est la réflectance au sommet de l'atmosphère
  • ρsurf est la réflectance de surface qu'on cherche à mesurer
  • ρatm est la réflectance de l'atmosphère, qu'on observerait au dessus d'un sol noir.
  • Tg est la transmission gazeuse, inférieure à 1
  • Td est la transmission due à la diffusion, inférieure à 1.

Quand l'abondance d'aérosols augmente, on observe que ρatm augmente, alors que Td diminue. Ces deux variables varient aussi avec les angles d'observation et avec la position du soleil. Plus on est près de la verticale, plus ρatm est petit, et plus Td est proche de 1.

 

Effets d'environnement :

La modélisation ci-dessus n'est valable que pour un paysage uniforme, mais une atmosphère fortement chargée en aérosols va aussi rendre les images acquises à haute résolution plus floues. Tout ceci est expliqué dans un autre article.

 

Modèles, corrections.

Plusieurs modèles permettent de faire des corrections atmosphériques. Pour des corrections atmosphériques approchées, le modèle le plus simple d'utilisation est le modèle SMAC, disponible sur le site du CESBIO. Toute la difficulté est de fournir à SMAC les propriétés optiques de l'atmosphère, et notamment l'abondance et le type d'aérosols. Cette opération est décrite dans un autre article.

D'autres modèles, plus précis mais plus complexes, peuvent être utilisés. De notre côté, dans la chaîne MACCS, nous calculons à l'avance des tableaux, à partir d'un "code de transfert radiatif" qui simule le transfert de la lumière au travers de l'atmosphère (Successive Orders of Scattering). Toutefois, l'utilisation d'un code complexe ne se justifie que si on dispose d'une bonne connaissance sur la quantité d'aérosols et leur type.

SPOT4(Take5) : Cloud statistics after one month

=>

We have now received all the L1A images of the SPOT4(Take5) experiment taken between January the 31st and March the 10th, for which at least some part of the surface is visible. We ortho-rectify these images to obtain level 1C products, but sometimes, the cloud cover is still too high to process the image. We can use all these productions to derive some statistics about cloud cover.

 

Proportion of images processed at Level 1A and Level 1C for the sites selected by each agency.
Institution Images acquired L1A processed L1C processed % L1A % L1C
CNES 324 184 157 56 % 49 %
JRC 54 29 27 53 % 50 %
ESA 84 41 34 49 % 40 %
NASA 48 26 26 54% 54%
CCRS 6 1 1 17 % 17 %

 

Between 40% and 50% of the images taken are sufficiently clear so that the ortho-rectification is feasible. When the production of all cloud masks (level2A) is finished, we will be able to compute the number of cloud free observations for each pixel.

After having looked at all the images in Europe or North Africa, we can confirm that all the pixels of these sites have been observed at least once without clouds, except for 3 sites : CAlsace, EBelgium and CTunisia (!). For the site in Alsace, we had to wait until the 4th of March, and until the 10th of March for the site in Tunisia. And up to now, only a little part of the site in Belgium has been observed, on the 8th of March.

 

Number of images acquired in February,
as a function of their cloud cover
Site Clouds < 10% 10% < Clouds < 50% 50% < Clouds < 80% 80% < Clouds
Alpes 2 0 2 2
Alsace 0 0 0 6
Ardèche 1 1 0 4
Loire 1 0 3 2
Bretagne 1 0 1 4
Languedoc 0 2 2 2
Provence 2 3 1 0
SudmipyO 1 1 1 3
SudmipyE 1 1 1 3
VersaillesE 2 0 1 3

In France, despite a very cloudy month of February, the 5 days repetitivity enabled to observe nearly each site at least once. But if SPOT4 had only imaged one out of two overpasses, only the sites in Versailles, Provence and the Alps would have been observed in any case.

 

This result confirms that it is absolutely necessary to launch both Sentinel-2 satellites with a short time interval, so enable the numerous operational applications that need to rely on a monthly clear observation. And it would be a pity if the recent GMES/Copernicus budget cuts resulted in delaying the Sentinel-2B satellite, reducing the repetitivity to only 10 days for several long years.