Le traitement et pré-traitement de l’image

La représentation mentale que l’humain se fait d’une image est sans doute assimilable à son acuité visuelle et à l’expérience qu’il retire de la photographie. L’image issue d’un capteur numérique, une image numérique, représente une scène tridimensionnelle constituée d’objets dont les valeurs attribuées pour la luminance énergétique (Le), lors de son acquisition, ont été enregistrées selon une matrice plane de répartition dans l’espace (Caloz et Collet, 2001 ; Liew, 1997). Elle est donc largement différente de l’image analogique (réf. photographie aérienne) en ce sens qu’elle porte une richesse d’informations élémentaires ou par pixel qui sont directement associées aux valeurs quantitatives du RÉM enregistré par le capteur (Caloz et Collet, 2001). Les pixels sont considérés comme les éléments matriciels de l’image numérique et représentent des données numériques aussi dites matricielles, d’où l’appellation d’image matricielle et son homologue anglais raster image (CM, 2015a,b).

Pour chaque pixel d’une image numérique [étape 4], la gamme possible des valeurs de Le est relative à la sensibilité du capteur et n’est donc pas constante d’un appareil à l’autre. Elle est déterminée par le nombre de bits que peut stocker le capteur, ou pour ainsi dire, par le nombre d’exposants de puissance 2 pouvant être codés par son système de mémorisation binaire (Campbell*, 2007 ; Liew, 1997). Une capacité moderne pour le stockage de l’information est le système à 8 bits pour lequel 8 valeurs d’exposants de puissance 2 sont disponibles et se traduisent par 27 + 26 + 25 + 24 + 23 + 22 + 21 + 20 = 255 valeurs disponibles pour la mémorisation de la Le en plus de la valeur nulle, ce qui alloue par pixel une gamme totale de 256 valeurs pour la capture du RÉM (Desjardins, 2000). Cette capacité correspond exactement à un octet, lequel ne doit pas être confondu à tord avec le terme anglais byte dont le nombre associé de bits est variable (OQLF, 2010). La valeur numérisée pour un pixel d’un capteur à 8 bits est donc représentée sous une forme binaire (0 ou 1) dont la combinaison à 8 chiffres 1 0 0 0 1 1 0 1, à titre d’exemple, renferme la signification 1 · (27) + 0 · (26) + 0 · (25) + 0 · (24) + 1 · (23) + 1 · (22) + 0 · (21) + 1 · (20), soit 128 + 0 + 0 + 0 + 8 + 4 + 0 + 1, indiquant une valeur de 141 de Le qui sera ensuite compatible pour le traitement assisté par ordinateur. Ainsi, pour chaque type de rayonnement capté lors d’une prise de vue, la valeur numérique de Le mémorisée en 8 bits pour un pixel se traduira à l’écran par le niveau de gris ou ton de gris correspondant, ici 141, parmi les 256 tons possibles. Ces valeurs sont aussi connues sous le nom de compte numérique (CN), de l’anglais digital counts ou digital numbers (DN). Elles soulignent également l’échelle de Le relative imposée par les systèmes informatiques et le besoin d’une conversion ultérieure pour obtenir l’échelle absolue ou la véritable Le (Caloz et Collet, 2001 ; Campbell*, 2007). La plus faible Le envisageable dans une scène représente le seuil de sensibilité au RÉM du capteur, p. ex. CN=0, et elle se traduit visuellement par le plus fort niveau de gris. Dans la région visible du spectre, un niveau tirant sur le noir est observable lorsqu’une surface d’eau profonde et calme ne réfléchit qu’une infime partie du rayonnement solaire après l’avoir absorbé en quasi totalité. À l’opposé, une très forte Le survient avec la pleine saturation du capteur en RÉM, p. ex. CN=255, et elle se transpose sur une image suivant le plus faible niveau de gris possible. Dans la région visible du spectre, un niveau tirant sur le blanc est détectable lorsqu’une neige fraîchement tombée a réfléchi pratiquement tout le rayonnement vers le capteur (Caloz et Collet, 2001 ; Provencher et Dubois, 2007). Ces informations sur la nature de l’image numérique viennent donc compléter les connaissances nécessaires pour bien comprendre la résolution radiométrique ayant été définie dans la section L’acquisition de l’image et exemplifiée avec son module Résolution radiométrique d’un capteur multibande. L’intéressé trouvera des informations complémentaires à ces notions dans quelques ouvrages supplémentaires (Butler et al., 1992 ; CCCOT, 2008 ; Jensen, 2005 ; Meaden et Kapetsky, 1991).

La représentation en couleur d’une bande spectrale ou de la scène est recomposée, au besoin, lors du traitement de l’image. L’œil humain, grâce à la détection des trois couleurs fondamentales de la lumière, n’est en fait sensible qu’à la région visible du spectre électromagnétique (Bonn et Rochon, 1992 ; Caloz et Collet, 2001 ; Larousse, 2016a,b ; UVED, 2008). En outre, il distingue assez bien les teintes de couleurs, mais au contraire, il perçoit faiblement les différentes intensités d’un même ton, et tout au plus, une dizaine de niveaux de base (Bonn et Rochon, 1992 ; Provencher et Dubois, 2007 ; de Joinville, 2011a ; Weger, 1999). Ainsi, selon la finalité du traitement de l’image, il peut parfois s’avérer judicieux de reconstruire le jeu des couleurs de la scène telles qu’elles sont perçues (Desjardins, 2000). En imagerie multibande, il s’agit d’assigner [étape 5] les couleurs des images captées dans le rouge (R), le vert (V) et le bleu (B), puis, de les additionner en une seule et même image (de Joinville, 2011a,b). Toutefois, cette recomposition de la couleur est considérée comme étant seulement une des nombreuses combinaisons possibles d’images numériques menant à la réalisation d’une composition colorée. Une telle composition, alors dites en couleurs naturelles ou vraies couleurs, puisque créée à partir des bandes spectrales originales de la région du visible, peut également provenir de bandes dont la couleur est dérivée du visible ou du non visible (BELSPO, 2016 ; Caloz et Collet, 2001 ; Jensen, 2005 ; Liew, 1997 ; UVED, 2008). Dans ce dernier cas, la composition est alors dite en fausses couleurs (OQLF, 1993a,b).

Sous la loupe de l’ordinateur, le traitement de l’image numérique débute à l’échelle individuelle des pixels, au moment où la structure globale de l’image matricielle se dérobe à la perception humaine [étape 5]. C’est en réalité l’organisation spatiale des tons de gris ou des couleurs de la scène, qui par la suite, donnera naissance à la texture et à la structure de l’image, donc aux formes et aux dimensions des objets, et éventuellement, au relief, à l’ombre, ainsi qu’aux composantes environnementales – telles la forêt, les champs cultivés, les cours d’eau et les bâtiments – associées à des applications thématiques (Caloz et Collet, 2001 ; Provencher et Dubois, 2007). Ainsi, l’analyse des informations élémentaires, de leur voisinage et de leur ressemblance permet à l’interprète de reconnaître des formes ou objets d’intérêt, leur délimitation, de même que leur regroupement thématique à l’échelle de la scène [étape 6a]. Cette reconnaissance sert ensuite de fondement à l’interprétation des données matricielles. Autrement dit, l’identification de la vraie nature des constituantes de la scène et l’extraction de l’information rendue perceptible au terme de l’interprétation repose sur cette procédure. On dit aussi du traitement de l’image numérique qu’il accroît le niveau de complexité de l’information discernée selon le niveau d’implication du raisonnement de l’interprète. Sans traitement, le contenu informatif intrinsèque d’une image numérique n’a qu’une dimension spectrale élémentaire. C’est effectivement par la suite, grâce à l’apport croissant des connaissances de l’interprète au traitement, que la dimension spatiale est progressivement intégrée à l’analyse de l’image jusqu’à la perception de constituantes de plus en plus complexes (tons et couleurs < texture < structure, ou contours, forme et dimension des objets < relief et ombre < composantes de l’environnement). Le niveau de perception engendré dépend toutefois de l’échelle requise au phénomène d’intérêt ou à l’objet pour qu’il soit détecté (autrement dit, de son niveau de couverture par une scène), de la dimension au sol des pixels de la (ou des) scène(s) utilisée(s) à cette fin (c.-à-d. de la résolution spatiale), de même que de la fenêtre de perception (PGGQ, 2004). Cette fenêtre correspond au niveau de complexité atteint dans la reconnaissance des constituantes de la scène un peu à la manière des pièces d’un casse-tête chinois dont l’interprète aurait fait fluctuer le nombre de pièces (donc aussi leur taille) selon le modèle choisi de partition du territoire (OQLF, 1985 ; OQLF, 1999). L’ensemble des constituantes perçues, accolées les unes aux autres, forment donc tout l’environnement de la scène (Bonn et Rochon, 1992 ; Caloz et Collet, 2001). Ainsi, à la base de l’interprétation ou du traitement des données matricielles, différents modèles de perception des constituantes de la scène se dissimulent sous des appellations communes [mais non équivalentes] telles que stratégies de segmentation, approches de classification, agrégation ou regroupement par classe, partition de l’image, ou zonage [étape 6a]. À ce stade, il est par ailleurs important de faire le lien entre la dimension spectrale des pixels, sur laquelle le traitement numérique commence et éventuellement mène à la partition du territoire de l’image, et la notion de signature spectrale des objets ayant réfléchi ou émis le RÉM capturé dans la scène. C’est effectivement avec l’identification des composantes environnementales thématiques de la segmentation de l’image que la signature spectrale prend tout son sens (OQLF, 2006). Pour un rappel sur cette notion, retourner à la section Les interactions de l’environnement ainsi qu’au module La résolution spectrale ou capture des signatures spectrales de la section L’acquisition de l’image.

Une fois que la partition de l’image est définitive, la dimension spatiale des constituantes identifiées et catégorisées peut alors s’inscrire dans la scène à l’aide des systèmes d’information géographique, SIG, ou à référence spatiale, SIRS [étape 6b], sur lesquels des informations sommaires sont disponibles (BELSPO, 2016 ; Bonn, 1996 ; Bonn et Rochon, 1992 ; Campbell*, 2007 ; Caloz et Collet, 2001 ; CCCOT, 2008 ; Desjardins, 2000 ; Dubois et al., 2000 ; Jensen 2000, 2005 ; OMM, 2012 ; OQLF, 2009 ; Provencher et Dubois, 2007) ainsi que leur développement en parallèle à la télédétection (Meaden et Kapetsky, 1991 ; Mayer, 2014). L’information spatiale escomptée sur les composantes environnementales de la scène peut alors être extraite – des limites territoriales, des dimensions, des dénombrements et inventaires, des statistiques d’occupation du territoire – puis stockée sous forme de données alors dites vectorielles, ou autrement dit, d’une image vectorielle (CM, 2015c ; OQLF, 2000). Dans ce type d’image, chaque objet est une unité géométrique inscrite dans l’espace à la manière des pièces du casse-tête chinois formant la scène. Le traitement de l’image numérique aboutit donc, à la suite de sa segmentation en entités thématiques connues et éventuellement de leur analyse spatiale, sur un support de présentation finale adapté aux objectifs de l’application d’intérêt (OQLF, 2004).

En prélude au traitement de l’image numérique apparaît le processus de son pré-traitement [étape 5], préparatoire et essentiel à celui de l’interprétation [étape 6]. Chacun de ces deux processus enchâsse un ensemble d’étapes et de méthodes à la carte, ou au choix, qui graduellement, tissent le lien entre la ou les images utilisées et la réponse aux objectifs de l’application visée, renouvelant ainsi de manière unique, ou rebâtissant à zéro, chacune des procédures de traitement possibles.

Le pré-traitement vise, dans sa finalité, à préparer l’image en vue de son interprétation, qui elle consiste, dans son plus simple niveau de traitement, à reconnaître la structure de la scène, ou plus précisément, à percevoir la forme et la dimension des objets qu’elle contient, en vue de leur identification (Caloz et Collet, 2001). Le pré-traitement peut ensuite se définir, dans la pratique, comme étant un processus de correction et d’amélioration de l’image permettant de procéder à une interprétation juste et révélatrice des informations qu’elle contient, respectivement. À l’unanimité, le pré-traitement s’applique donc d’abord (1) à maîtriser les erreurs de valeurs de Le ou de position des objets en employant des méthodes de corrections radiométriques et géométriques, respectivement [étape 5a]. Les corrections radiométriques sont utilisées afin d’égaliser ou recouvrer les informations spectrales d’un secteur d’intérêt, par exemple, en éliminant les artéfacts provenant des conditions naturelles (p. ex. des masses nuageuses et des ombres) ou d’une défaillance du capteur (p. ex. des rayures). Les corrections géométriques, quant à elles, se chargent de restaurer la forme des objets et leur emplacement précis à la surface terrestre, ce qui s’avèrera très utile lorsque des dimensions devront être évaluées en fin d’interprétation. Ces corrections sont aussi nommées restauration ou rectification et constituent une forme d’amélioration de l’image. En outre, elles doivent bien être sous-pesées et n’être envisagées que lorsque les objectifs fixés en dépendent, par exemple en vue de l’interprétation quantitative des dimensions spectrale ou spatiale, puisqu’en modifiant les informations d’origine, les méthodes employées peuvent également insérer des artéfacts indésirables (Campbell*, 2007). Plus en marge [NOTE] du pré-traitement, ce dernier s’attarde ensuite à (2) optimiser le contenu informatif de l’image à faible niveau de complexité afin de faire ressortir ou isoler certaines caractéristiques [étape 5b], qui elles, favoriseront ensuite la reconnaissance d’objets, qu’elle soit manuelle (interprétation visuelle) ou automatique (interprétation assistée par ordinateur). Plus spécifiquement, ces modifications s’attardent au contenu spectral propre ou intrinsèque de l’image – tels les tons, les couleurs et la texture – avant que les connaissances de l’interprète ne soient impliquées dans l’association des pixels à son contenu informatif (c.-à-d. avant son interprétation). Ici, l’expression amélioration de l’image est donc spécifiquement employée dans un sens allant bien au-delà de la restauration d’image.

Le choix de méthode pour l’amélioration de l’image diffèrera suivant que les objectifs de l’interprétation à venir nécessitent ou non une approche quantitative. Historiquement, l’interprétation des photographies aériennes était réalisée manuellement, et elle servait de point de départ à l’approche quantitative. Les méthodes sous-jacentes à cette approche ont toutefois évolué avec l’avènement de l’imagerie numérique et l’automatisation des procédés à l’ordinateur (réf. notamment aux algorithmes et itérations), conjointement avec des statistiques modernes, ce qui a rendu plus performante l’approche quantitative. Mais l’un n’empêche pas l’autre : l’interprète peut effectuer le pré-traitement de l’image à l’ordinateur et l’analyser qualitativement (visuellement), le photo-interprète peut adopter une approche quantitative à l’ancienne (manuellement), et les deux approches ou types d’interprétations peuvent être combinées (p. ex. la photographie peut être numérisée puis traitée à l’ordinateur). Quoique la photo-interprétation manuelle demeure populaire pour certaines applications en particulier, en télédétection moderne, les démarches d’interprétation sont la plupart du temps effectuées à l’ordinateur à partir de l’image numérique. En outre, les méthodes préparatoires d’amélioration de l’image peuvent être classées selon qu’elles interagissent globalement ou localement, sur le domaine spectral ou le domaine spatial, sur une bande spectrale ou plusieurs à la fois, voire, à partir d’une source d’information ou plusieurs. Par souci de clarté, différentes expressions ont été répertoriées dans le cadre de l’amélioration de l’image : rehaussement ou modifications visuelles, amélioration du contraste, application de filtres, création de compositions colorées, transformations d’images, dérivation de l’information, rapport de composantes, de bandes spectrales ou rapports spectraux, isolation des composantes numériques, extraction des caractéristiques spectrales ou des paramètres biophysiques, indices ou variables thématiques, création d’images non spectrales, fusion ou intégration des images, allègement ou élimination de la redondance, fragmentation et agrandissement, réduction et compression des images. Ces expressions ne s’équivalent pas toutes, mais donnent un meilleur aperçu des différentes méthodes ou techniques caractérisant l’amélioration de l’image.

Plusieurs ouvrages de télédétection passent en revue les méthodes de traitement numérique préalables à l’interprétation de l’image [avant la classification] ou la globalité de tels traitements assistés par ordinateur, mais bien sûr, sans adopter le même niveau de profondeur. La séquence de traitement n’est pas forcément toujours la même puisqu’elle est adaptée aux objectifs de l’intéressé. Ainsi, il peut parfois arriver que des méthodes introduites dans le cadre du pré-traitement aient à être exécutées au cours de l’interprétation de l’image (lorsque les connaissances de l’interprète sont impliquées dans l’association du contenu spectral des pixels à leur vraie nature, voire, après le regroupement par classe). L’intéressé est invité à consulter les ressources disponibles pour obtenir plus de détails sur les méthodes de pré-traitement de l’image (BELSPO, 2016 ; Bonn et Rochon, 1992 ; Butler et al., 1992 ; Caloz et Collet, 2001 ; Campbell*, 2007 ; CCCOT, 2008 ; Desjardins, 2000 ; Jensen, 2000, 2005 ; de Joinville, 2011a,b,c ; Liew, 1997 ; Meaden et Kapetsky, 1991).

Thème Image Description
Niveau de gris élémentaires  

Le module What a sensor sees (Horning, N.) fait le parallèle entre la réalité du RÉM perçu par le champ de visée instantané, CVI, d’un capteur satellitaire (circulaire), et la simplification survenant avec l’enregistrement d’une cellule de résolution spatiale projetée au sol (carrée) de 30 x 30 m en pixel, dans une section de 200 x 200 m d’une scène d’un capteur de landsat. La suite d’images montrée permet à l’utilisateur (en cliquant sur Next ) de visualiser, de manière dynamique, [en haut] l’influence des objets perçus dans le CVI de ce capteur [cible circulaire verte] sur le ton de gris enregistré dans le pixel [cible carrée verte] en comparaison [en bas] avec le ton de gris moyen de ce même pixel, qui est souvent pris à tord pour acquis, mais ne représente pas la réalité perçue par le capteur. Cette suite permet donc de concrètement montrer l’influence des objets (et leur taille) inclus dans le CVI d’un capteur sur le ton de gris enregistré dans un pixel pour une bande spectrale de la région visible du spectre. À la fin de la suite d’images, l’utilisateur notera entre autres l’uniformité de tons nécessaire dans tout le CVI du capteur pour obtenir un pixel de luminance près de son seuil de sensibilité (CN=0) ou de saturation (CN=255), et ainsi, la gamme entière des tons de gris ou résolution radiométrique représentant la scène (0 à 255 ou 256 valeurs possibles). Ces nuances de gris sont difficiles à percevoir, mais elles seront bien soupesées sous la loupe de l’ordinateur, et pourront prendre un sens invisible à l’œil nu lors du traitement de l’image numérique. Au départ, par analogie à ce module, seuls les pixels et leurs valeurs spectrales sont perceptibles pour l’ordinateur. Le pré-traitement agira au niveau de ces éléments d’image afin de corriger les erreurs de valeur et de position connues, mais aussi afin d’améliorer l’image en vue de son interprétation assistée par ordinateur. Le pré-traitement est donc crucial pour la validité des informations produites en cours d’analyse. Au final, l’organisation spatiale de ces tons de gris servira, avec l’implication de l’interprète, à identifier la structure et la nature des objets composant chaque scène, et ce, à partir de leur signature spectrale, qu’elle soit originaire de(s) région(s) visible(s) ou invisible(s) du spectre.

Composition colorée de scènes  

Le module Band combinations (Horning, N.) illustre la pertinence des compositions colorées (ici en fausses couleurs) pour distinguer les différentes composantes d’une scène. Effectivement, l’œil humain perçoit beaucoup plus de nuances à travers les différentes couleurs produites par la combinaison des trois couleurs fondamentales et leur gamme d’intensités, qu’à travers une seule gamme de gris. De telles compositions ont donc l’avantage de combiner ensemble trois régions spectrales, laissant la possibilité de s’exprimer en une seule image des signatures thématiques (p. ex. eau, forêt et rue). Ce module permet à l’utilisateur de choisir [en haut] un des trois capteurs (modis, aster, etm+ de landsat), chacun présentant une scène différente, ainsi que [en bas] les bandes spectrales à inclure dans la composition colorée. modis présente une section des montagnes Gila dans le sud des États-Unis, tandis que etm+ et aster présentent différentes couvertures de la ville de Huế au Vietnam. L’intéressé notera que le nombre de bandes spectrales mesurées par capteur définit leur résolution spectrale. Pour le capteur sélectionné par l’utilisateur, la nature de chacune des bandes et la ou les thématique(s) associée(s) s’affichent dans la fenêtre à défilement, ainsi que les meilleures suggestions de combinaison pour créer une composition colorée. Faites l’essai de ces suggestions en choisissant les bandes et en cliquant sur compose ! Sauriez-vous dire quel(s) capteur(s) permet(tent) de réaliser des compositions colorées se rapprochant des couleurs naturelles ? Chacune des deux représentations de la ville de Huế mettent en évidence une structure carrée au bord de la rivière des Parfums ayant le même aspect visuel que celle-ci (thématique eau). Il s’agit en fait de l’ancienne cité impériale, qui est entourée de murs et de larges douves, et où jardins, canaux et plans d’eau côtoient maintenant un environnement citadin (NG, 2015 ; Wikipédia 2016). Sachant que le proche infrarouge peut servir à identifier les zones de végétation saine, êtes-vous capable de les repérer dans les différentes scènes ? Pour le capteur aster, il suffit de fournir la combinaison R=bande du rouge, G=bande du proche infrarouge et B=bande du vert. Finalement, avec le capteur etm+, trouvez la combinaison de bandes permettant de différencier le mieux possible les différents types de végétation. Pouvez-vous distinguer les zones de végétation arborescentes de celles agricoles ?

note : Consultez la section L’acquisition de l’image et le module Résolution spectrale ou capture des signatures spectrales pour revoir les satellites d’appartenance des capteurs et leurs noms complets.

Les yeux versus l’ordinateur  

Le module Land cover map/image comparison (Horning, N.) permet de visualiser deux environnements distincts en sélectionnant le capteur etm+ [tm] de landsat, ou modis. Ici, l’intérêt est de comparer, pour chaque environnement, [à gauche] la version améliorée en vue d’une interprétation visuelle (il s’agit d’une composition colorée) avec [à droite] celle dont l’interprétation assistée par ordinateur a été réalisée grâce à un traitement plus avancé (de type classification). Selon le grossissement choisi par l’utilisateur (magnification), la nature des pixels classifiés est indiquée dans la légende thématique avec la couleur de leurs regroupements. D’une information invisible à l’œil nu [à gauche] apparaissent donc des composantes environnementales distinctes [à droite]. L’utilisateur peut parcourir ces versions « avant » et « après » en déplaçant une cible circulaire noire tout en tenant enfoncé le clic sur cette dernière, et ce, de l’échelle originale (grossissement 100 %) à celle des pixels (grossissement 400 %). Le résultat de la classification, par rapport à l’image non classifiée, est encore plus frappant et profitable après avoir enfoncé la touche X du clavier, dont l’effet est d’interchanger le contenu des cibles. Faites-en l’essai ! L’exercice démontre l’intérêt pour l’interprétation assistée par ordinateur. En outre, il expose l’importance du traitement [et pré-traitement] de l’image numérique, et celle de la signature spectrale qui sert à identifier les composantes environnementales de la scène lors d’un traitement de classification. Notez que la procédure de traitement effectuée permet d’ignorer la présence des ombres. Sur l’image de gauche s’affichant en sélectionnant le capteur etm+, repérez les zones cyan argenté. Est-ce que les composantes environnementales semblent avoir une nature commune ? Vérifiez ensuite leur vraie nature en repérant ces mêmes zones dans l’image classifiée de droite. Maintenant, sur l’image de droite affichée avec le capteur modis, trouvez le plan d’eau (water) le plus facile à distinguer. Est-il situé en milieu urbain ou forestier ? Comment cela cadre avec l’emplacement de cette scène ? Finalement, pour les scènes des deux capteurs, si le seul traitement effectué mis à part une composition colorée était la classification, est-ce que le calcul de dimensions ou distances serait fiable ?

REFERENCES

American Museum of Natural History, 2016. Remote Sensing Interactives [En ligne]. Center for Biodiversity and Conservation. [www.amnh.org/our-research/center-for-biodiversity-conservation/biodiver sity-informatics/remote-sensing-interactives] (Consulté le 5 décembre 2016).

Belgian Science Policy Office, 2016. Petit guide de la télédétection – EOEdu Observons notre planète [En ligne]. [eoedu.belspo.be/fr/guide/index.htm]. (Consulté le 31 août 2016).

Bonn, F., 1996. Précis de télédétection – Vol. II Applications thématiques. Presses de l’Université du Québec/AUPELF, Sainte-Foy, 633 p.

Bonn, F., Rochon, G., 1992. Précis de télédétection – Vol. I Principes et méthodes. Presses de l’Université du Québec/AUPELF, Sainte-Foy, 486 p.

Butler, M.J.A., Mouchot, M.-C., Barale, V., LeBlanc, C., 1992. Application de la télédétection à la pêche marine – Manuel d'initiation [En ligne]. FAO Document technique sur les pêches no. 295, Rome, 203 p. [www.fao.org/docrep/003/T0355F/T0355F00.HTM]

Caloz, R., Collet, C., 2001. Précis de télédétection – Vol. III Traitements numériques d’images de télédétection. Presses de l’Université du Québec/AUF, Sainte-Foy, 386 p. [books.google.ca/ books?id=9bepLPU5udQC&lpg=PP1&hl=fr&pg=PP1#v=onepage&q&f=false]

Campbell*, J.B., 2007. Introduction to Remote Sensing (4e Ed.). The Guilford Press, New York, 626 p. *Disponible en ligne : Campbell, J.B., Wynne, R.H., 2011. Introduction to Remote Sensing (5e Ed.) The Guilford Press, New York, 667 p. [books.google.ca/books?id=zgQDZEya6foC& lpg=PP1&hl=fr&pg=PP1#v=onepage&q&f=false]

Centre canadien de cartographie et d’observation de la Terre, 2008. Notions fondamentales de télédétection – Tutoriel [En ligne]. Disponible en français et anglais. Dernière mise à jour le 29 février 2016. [www.rncan.gc.ca/sciences-terre/geomatique/imagerie-satellitaire-photos-aeriennes/imagerie-satellitaire-produits/ressources-educatives/9310] (PDF téléchargé le 18 juillet 2016).

Culture Montréal, 2015a. Image numérique – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=26540990] (Consulté le 10 décembre 2016).

Culture Montréal, 2015b. Image matricielle – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=26540989] (Consulté le 10 décembre 2016).

Culture Montréal, 2015c. Image vectorielle – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=26540991] (Consulté le 10 décembre 2016).

Desjardins, R., 2000. La télédétection – perspective analytique. Éditions ESTEM/AUPELF-UREF, Paris, 226 p. [www.bibliotheque.auf.org/index.php?lvl=notice_display&id=312]

Dubois, J.-M.M., Caloz, R., Gagnon, P. (réd.), 2000. La télédétection en francophonie – Analyse critique et perspectives. Actes des Journées scientifiques de Lausanne, 1999. AUF, Montréal, 463 p. [www.bibliotheque.auf.org/index.php?lvl=notice_display&id=263]

Jensen, J.R., 2000. Remote Sensing of the Environment – An Earth Resource Perspective. Prentice Hall, Upper Saddle River, 544 p.

Jensen, J.R., 2005. Introductory Digital Image Processing – A Remote Sensing Perspective (3e Ed). Prentice Hall, Upper Saddle River, 526 p.

de Joinville, O., 2011a. Traitements numériques des images en télédétection [En ligne]. École nationale des sciences géographiques, Marne-La-Vallée, 74 p. [cours-fad-public.ensg.eu/course/ view.php?id=82] (PDF téléchargés le 20 mars 2017).

de Joinville, O., 2011b. Introduction à la télédétection [En ligne]. Dernière mise à jour en 2015 (Gagnon, D.). École nationale des sciences géographiques, Marne-La-Vallée, 185 p. [cours-fad-public.ensg.eu/course/view.php?id=29] (PDF téléchargés le 20 mars 2017).

de Joinville, O., 2011c. Géométrie des images spatiales [En ligne]. École nationale des sciences géographiques, Marne-La-Vallée, 59 p. [cours-fad-public.ensg.eu/course/view.php?id=83] (PDF téléchargés le 20 mars 2017).

Larousse, 2016a. Couleur – Encyclopédie [En ligne]. [www.larousse.fr/encyclopedie/divers/couleur/37793] (Consulté le 6 septembre 2016).

Larousse, 2016b. Vision – Encyclopédie [En ligne]. [www.larousse.fr/encyclopedie/medical/vision/16963] (Consulté le 8 novembre 2016).

Liew, S.C., 1997. Principles of Remote Sensing [En ligne]. Dernière mise à jour en 2001. [www.crisp.nus.edu.sg/~research/tut/orial/rsmain.htm] (Consulté le 14 novembre 2016).

Mayer, R.É., 2014. Notions de géographie physique. Éditions des archives contemporaines, Paris, 469 p. [books.google.ca/books?id=PYtlBAAAQBAJ&printsec=frontcover#v=onepage&q&f=false]

Meaden, G.J., Kapetsky, J.M., 1991. Geographical information systems and remote sensing in inland fisheries and aquaculture [En ligne]. FAO Fisheries Technical Paper no. 318, Rome, 262 p. [www.fao.org/docrep/003/t0446e/T0446E00.htm]

National Geographic, 2015. À la découverte de la ville d’Huê, l’âme du Viêt Nam [En ligne]. Par Marie-Amélie Carpio-Bernadeau. [www.nationalgeographic.fr/20760-huê-toute-lâme-du-viêt-nam] (Con-sulté le 13 décembre 2016).

Office québécois de la langue française, 1985. Segmentation en régions – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8385873] (Consulté le 19 octobre 2016).

Office québécois de la langue française, 1993a. Fausse couleur (1re définition) – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=17017465] (Consulté le 24 mars 2017).

Office québécois de la langue française, 1993b. Fausse couleur (2e définition) – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=17017505] (Consulté le 24 mars 2017).

Office québécois de la langue française, 1999. Casse-tête chinois – Fiche–terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=17490120] (Consulté le 19 octobre 2016).

Office québécois de la langue française, 2000. Image vectorielle – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8373604] (Consulté le 19 octobre 2016).

Office québécois de la langue française, 2004. Analyse spatiale – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8358690] (Consulté le 19 avril 2017).

Office québécois de la langue française, 2006. Signature spectrale – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8352149] (Consulté le 17 février 2017).

Office québécois de la langue française, 2009. Système d’information géographique – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8358590] (Consulté le 9 décembre 2016).

Office québécois de la langue française, 2010. Octet – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8387944] (Consulté le 7 septembre 2016).

Organisation météorologique mondiale, 2012. Système d’information géographique – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ ficheOqlf.aspx?Id_Fiche=26521347] (Consulté le 9 décembre 2016).

Plan géomatique du gouvernement du Québec, 2004. Les échelles – La cartographie [En ligne]. Dernière mise à jour en 2008. [www.quebecgeographique.gouv.qc.ca/education/cartographie-echelle.asp] (Consulté le 26 avril 2017).

Provencher, L., Dubois, J.-M.M., 2007. Précis de télédétection – Vol. IV Méthodes de photointerprétation et d’interprétation d’image. Presses de l’Université du Québec/AUF, Québec, 468 p. [books.google.ca/books?id=C0MoyKarrbkC&lpg=PP1&hl=fr&pg=PP1#v=onepage&q&f= false]

Weger, G., 1999. Cartographie – Sémiologie graphique et conception cartographique (Volume 1) [En ligne]. École nationale des sciences géographiques, Marne-La-Vallée, 140 p. [cours-fad-public.ensg.eu/pluginfile.php/1313/mod_resource/content/1/carto_vol1.pdf] (PDF téléchargé le 20 mars 2017).

Wikipédia, 2016. Hué. Wikipédia, l’encyclopédie libre. Dernière mise à jour le 29 octobre 2016. [fr.wikipedia.org/wiki/Hué] (Consulté le 13 décembre 2016).

Université virtuelle environnement et développement durable, 2008. ENVCAL – Suivi de l'environnement par télédétection [En ligne]. Ressources pédagogiques numériques produites par UVED. [www.uved.fr/ressources-pedagogiques-numeriques/envcal.html] (Consulté le 9 mars 2017).

Show less

 
NOTE

i La marginalité de l’amélioration de l’image comme partie intégrante du processus de pré-traitement, provient, en premier lieu, de l’absence de consensus entre les différents auteurs sur le simple usage du terme pré-traitement, ce qui dès lors amène l’information de manière confuse au débutant en télédétection. Plusieurs auteurs n’utilisent tout simplement pas de terme spécifique associant ensemble toutes les étapes préalables à l’interprétation de l’image (Bonn et Rochon, 1992 ; Butler et al., 1992 ; Caloz et Collet, 2001 ; CCCOT, 2008 ; Jensen, 2005), ou à l’opposé, ils consacrent une partie notable de leur ouvrage au pré-traitement sans définir où débute l’interprétation (Campbell*, 2007). En deuxième lieu, la discordance entre les auteurs sur la délimitation du pré-traitement affecte en parallèle la compréhensibilité de l’amélioration de l’image dans sa finalité. Par association, cela fait aussi ressortir le fait que d’entrée de jeu, le but, les fondements et la démarche des étapes du traitement ne sont pas uniformes d’un ouvrage à l’autre, et, ne sont pas vulgarisées suffisamment pour le débutant en télédétection. À titre d’exemple, Campbell (2007) mentionne que « la plupart [des opérations de pré-traitement] peut être catégorisée parmi l’un des trois groupes [suivants] : [1] les extractions de caractéristiques [qu’il réfère peut après comme étant l’extraction de l’information], [2] les corrections radiométriques, et [3] les corrections géométriques » (traduction libre). Par ailleurs, il ne consacre aucune partie de son ouvrage sur le processus de l’amélioration de l’image, et après son chapitre sur le pré-traitement, il passe directement à celui sur la classification [l’interprétation de l’image numérique, mais sans son contexte]. L’auteur mentionne clairement, toutefois, que le « pré-traitement forme une phase préparatoire qui, en principe, améliore la qualité de l’image servant de base pour les analyses ultérieures qui s’appliqueront à extraire l’information de l’image » (traduction libre), et, il termine son chapitre sur le pré-traitement en abordant des opérations décrites par les autres auteurs comme faisant partie de l’amélioration de l’image (p. ex. l’utilisation de filtres). En contraste, le CCCOT (2008) mentionne qu’« on appelle fonctions de pré-traitement les opérations qui sont normalement requises avant l'analyse principale et l'extraction de l'information [l’interprétation] ». Somme toute, bien que les différents auteurs n’utilisent pas spécifiquement l’expression extraction de l’information pour le processus de l’amélioration de l’image, ils semblent pourtant tous d’accord sur le fait que cette amélioration à proprement parler permet de faire ressortir ou d’accentuer des caractéristiques aidant l’analyste à extraire l’information de l’image ou à la préparer pour son interprétation. En ce sens, les propos de Campbell font en fait l’unanimité en plus d’être corroborés par les mêmes exemplifications d’opérations visant à améliorer l’image. En réalité, les opérations de correction et d’amélioration de l’image du pré-traitement constituent, respectivement, les préparatifs et les tout débuts de l’extraction de l’information, qui au final, est révélée sous sa forme ultime ou escomptée au terme de l’interprétation. Au débutant en télédétection, il semble donc primordial d’entrevoir aussi, dès l’étape du pré-traitement, que les méthodes à la carte employées au cours des processus successifs du traitement de l’image contribuent à l’extraction de l’information, à savoir, la finalité de l’interprétation, qui elle, sera élaborée dans la section suivante.

Show less