L’acquisition de l’image

Une fois le RÉM d’une prise de vue capté à l’intérieur de l’appareil (d’après son champ de visée instantané), une combinaison de procédés se succèdent et permettent l’acquisition de l’image [étape 4].

Les premiers appareils ayant été utilisés en télédétection étaient photographiques (Bonn et Rochon, 1992 ; Desjardins, 2000 ; de Joinville, 2011a ; OQLF, 2000). Ces capteurs optiques [dans ce cas-ci analogiques] font partie des systèmes d’acquisition globale, c.-à-d. permettant la capture instantanée d’une scène entière (Butler et al., 1992 ; CM, 2015 ; Larousse, 2017 ; OQLF, 2001a, 2006a). Dans les appareils photographiques, la capture d’image s’effectue sur une pellicule à partir d’un procédé photochimique. Au début des années 1960, la retransmission terrestre du négatif n’était pas chose simple pour les premiers satellites lancés en orbite (p. ex. satellites-espions CORONA) malgré le développement des procédés [de retransmission] à cette même période (p. ex. le satellite météo Television Infrared Observation satellite, TIROS-1). La photographie [lire également photo-interprétation] a permis d’élaborer une bonne partie des concepts et méthodes de la télédétection moderne, et elle demeure tout de même, pour certains types de cartes, la source principale d’information (Bonn et Rochon, 1992 ; Campbell*, 2007 ; Desjardins, 2000 ; Larousse, 1971 ; Mayer, 2014 ; OQLF, 2006b).

L’avènement des appareils numériques simplifia grandement l’acquisition terrestre des images (via retransmission radio), mais qui plus est, elle constitua un point tournant dans les capacités d’acquisition et d’interprétation des images en télédétection. Ces capteurs numériques [électroniques], des radiomètres (de radio- pour « rayon » et -mètre pour « mesure ») pour la plupart dits imageurs, font partie des systèmes d’acquisition séquentielle, c.-à-d. dont la capture de la scène entière n’est pas instantanée, mais requiert une série d’acquisitions (Butler et al., 1992 ; CELF, 2000a ; Leroy, 2004 ; OQLF, 2002a). Pendant que la plate-forme avance le long de sa trajectoire, l’appareil capte une partie du RÉM provenant d’une prise de vue au sol, et ultimement [le processus interne diffère selon la technologie impliquée], il enregistre l’intensité dirigée par unité de surface apparente associée à cette image sous forme de valeur numérique dans le canal approprié au rayonnement filtré. Image par image, la scène est entièrement couverte grâce au balayage spatial effectué par le capteur [le parcours varie selon la catégorie]. Une seule prise de vue ou image (en accord avec la cellule de résolution au sol) peut alors correspondre à deux choses différentes selon le type de balayage (de l’anglais scan) effectué dans l’espace et la technologie interne impliquée : à un seul élément de la scène entière [l’élément étant la plus petite sous-unité indivisible d’une image], sinon, à une rangée entière d’éléments, de la largeur totale de la scène (ce qui correspond à la fauchée). Chacun de ces éléments correspondent aux pixels d’une image [dans le présent contexte, ce sont des éléments de la scène], de l’anglais picture elements. Leur taille équivaut dans le premier cas [et historiquement] à la taille au sol d’une seule prise de vue, et implique les capteurs de première génération à balayage latéral (par rapport à la trajectoire de la plate-forme qui est longitudinale) dans l’acquisition d’une rangée de la scène, à l’instar des termes anglais across track ou whisk broom (Butler et al., 1992 ; Bonn et Rochon, 1992 ; Campbell*, 2007 ; CCCOT, 2008 ; Jensen, 2000 ; Liew, 1997). Alternativement [grâce à un mode d’acquisition plus récent], le nombre de pixels doit être tenu en compte pour définir la taille au sol d’un seul élément en ce qui concerne les capteurs de deuxième génération à balayage longitudinal (aussi nommés balayeurs à barrettes de détecteurs), puisqu’ils font l’acquisition en série de rangées entières de la scène (dans la même direction que la trajectoire de la plate-forme), à l’instar des termes anglais along track ou push broom, et surtout, en contraste avec le balayage latéral (HGS, 2016 ; de Joinville, 2011a ; Leroy, 2004). L’enregistrement d’une prise de vue conserve l’information spatiale associée aux pixels à la manière d’un quadrillage ou d’une matrice, ce qui permet la reconstruction de la scène entière. Le réassemblage visuel de cette matrice numérique n’est toutefois généré qu’une fois la série de valeurs retransmise à une station de réception terrestre (Caloz et Collet, 2001 ; CCCOT, 2008 ; Desjardins, 2000 ; OQLF, 1997 ; RNCAN, 2014, 2016a).

En fonction des capacités du capteur, chaque prise de vue au sol rend possible la capture instantanée de différents types de rayons (des régions spectrales bien délimitées) ainsi que l’enregistrement numérique de leur intensité dirigée par unité de surface apparente, ou luminance énergétique (Le), et ce, dans des canaux séparés (Bonn et Rochon, 1992 ; Desjardins, 2000 ; OQLF, 1993 ; UVED, 2008). Le balayage d’une scène entière produit donc, par canal ou bande spectrale, une série de données numériques associée à l’image correspondante de la scène. L’ensemble de ces images acquises simultanément à partir de différentes régions spectrales renvoie à la terminologie caractérisant ces capteurs numériques : ils sont multispectraux ou multibandes (Bonn et Rochon, 1992 ; Desjardins, 2000). Le tirage d’une scène balayée par un ce ces appareils est donc analogue à celui des photographies d’un album. Tout comme le développement des négatifs d’une pellicule révèle diverses photographies, chaque exemplaire ou page, correspondant à un seul canal ou bande spectrale, apporte une couche d’information unique à l’ouvrage de la scène entière (OQLF, 2002b). Nonobstant, certains types de capteurs imageurs ne sont pas assimilables à ce concept puisqu’ils ne mesurent pas différents rayons à la fois. Par définition, ils correspondent donc à des capteurs dits monospectraux ou monobandes (Desjardins, 2000 ; Dubois et al., 2000). En contrepartie, d’autres capteurs ont la capacité de capter et d’enregistrer jusqu’à des centaines d’étroites bandes spectrales à la fois : il sont hyperspectraux (CCCOT, 2008 ; CELF, 2000b, 2007 ; Desjardins, 2000). Les capteurs multibandes sont des capteurs passifs pouvant détecter des régions dans tout le spectre utilisable de la télédétection (malgré la présence d’une discontinuité dans la fenêtre de rayonnement qui est due aux interactions du RÉM avec l’atmosphère). Quoique le radar soit une référence parmi les capteurs actifs, ces derniers appareils peuvent aussi être conçus pour la détection des autres régions du spectre électromagnétique. Le satellite Cloud-Aerosol Transport System on the International Space Station, CATS, porte notamment un lidar pouvant simultanément enregistrer trois différentes longueurs d’onde dans l’ultraviolet, le visible, et l’infrarouge, pour une acquisition finale similaire à celle de certains capteurs multibandes (NASA, 2014). Ce capteur est toutefois consacré à l’étude de l’atmosphère et non à celle de la surface terrestre.

Les premières scènes à imagerie numérique ayant été fournies en 1972 grâce au Multispectral Scanner System ou capteur MSS du satellite consacré à l’observation de la Terre Land Satellite LANDSAT-1, d’abord nommé Earth Resources Technology Satellite ERTS-1 (CCCOT, 2008 ; NASA, 2016 ; OQLF, 1987 ; Desjardins, 2000), mesuraient 185 km en largeur au sol (d’est en ouest) sur 170 km le long de sa trajectoire (du nord au sud), et elles requéraient environ 2400 balayages latéraux pour leur acquisition, chacun de ces balayages étant obtenu en environ 3240 prises de vue. Puisqu’il y avait du chevauchement entre deux balayages ou prises de vue, la taille originale des pixels était de 57 m de largeur par 79 m de longueur au sol, soit un peu moins d’un terrain de football aux États-Unis (Campbell*, 2007 ; USGS, 2016). Conformément aux systèmes d’acquisition actuels, les scènes ont ensuite été redimensionnées avec des pixels dont la taille au sol est de 60 x 60 m. Les capteurs satellitaires sont en constante évolution et il est facile d’en perdre le fil ! Déjà, en 2001, le satellite QuickBird avait atteint une précision en imagerie multibande fournissant des pixels de 2,4 x 2,4 m de dimension (Johnston, 2006).

Le concept de scène a été mis de l’avant dans cette mise en contexte car c’est le format de base procuré par les fournisseurs d’images en télédétection. Ce format – la taille de la zone couverte au sol – varie toutefois d’un capteur à l’autre. C’est donc toute une gamme de produits qui sont mis à disposition pour le consommateur (Meaden et Kapetsky, 1991 ; RNCAN, 2016b). Mais avant tout, l’utilisateur s’intéressera à comparer le niveau de qualité des différents produits pour arrêter son choix. Il est donc primordial, à ce stade-ci, d’introduire les concepts de résolution spatiale, radiométrique, spectrale et temporelle.

La résolution spatiale réfère à la finesse des détails qui sont perceptibles spatialement dans une image numérique ; plus les détails ou objets perçus sont de petite taille, plus la résolution spatiale est fine. Un objet doit donc être de taille égale ou supérieure au plus petit élément de la scène (pixel ou cellule de résolution au sol) pour être perceptible, mais encore, être positionné de manière optimale par rapport au quadrillage de la scène, qui lui, ne suit pas la forme des objets, puisque ses éléments ont une forme carrée. Selon le contexte, la résolution spatiale réfère à la limite de résolution ou au pouvoir de résolution (Bonn et Rochon, 1992 ; Campbell*, 2007 ; CELF, 2000c ; CILF, 1980a ; OQLF, 2001b), mais en des termes plus simples, elle se définit comme étant la taille du plus petit objet (ou celle de la plus petite distance distinguable entre deux objets) pouvant être distingué au sol dans une scène, ce qui correspond généralement, avant le traitement d’une image satellitaire, à la taille de ses pixels (Campbell*, 2007 ; CCCOT, 2008 ; Jensen, 2005 ; Liew, 1997). La résolution spatiale est en fait à l’image numérique ce qu’est la définition à la photographie (Provencher et Dubois, 2007). Pour être plus précis concernant la précision donnée précédemment pour le satellite QuickBird en mode multibande, sa résolution spatiale correspond à 2,4 m.

La résolution radiométrique se rapporte à la finesse d’enregistrement du RÉM par le capteur dans un canal spectral ; plus les détails d’intensité de Le du rayonnement sont finement perçus par le capteur, plus la résolution radiométrique est fine. Une finesse de résolution idéale permettrait donc de reproduire toutes les nuances et subtilités perçues par le capteur en enregistrant parfaitement, sans troncature, la gamme des valeurs d’intensité dirigée de Le du RÉM canalisé pour une bande spectrale donnée par unité de surface apparente. Au contraire, la pire résolution ne fournirait que la capture ou non du rayonnement (saturation ou absence), ce qui fournirait une image contrastée en deux tons [couleurs], donc une pauvre représentation de l’information contenue dans la scène. La Le enregistrée pour une image numérique est en fait limitée par la capacité de stockage de l’information du capteur, c.-à-d. par le nombre de valeurs qu’il peut mémoriser par pixel (pour en savoir plus, aller à la section suivante). Plus la gamme entre la plus faible et la plus forte valeur est fine, plus elle contient de valeurs, et s’ajoutant notamment à cela, plus la scène contient de cellules de résolution au sol, c.-à-d. de pixels, plus le capteur est limité dans sa capacité de stockage. La résolution radiométrique se définit donc comme étant la plus petite nuance de RÉM pouvant être enregistrée pour une bande spectrale d’un capteur, ce qui se traduit par le nombre de valeurs numériques pouvant être stockées par pixel (Butler et al., 1992 ; Campbell*, 2007 ; CCCOT, 2008 ; Jensen, 2005 ; Liew, 1997 ; OQLF, 1990a).

La résolution spectrale se distingue quant à elle par la diversité des caractéristiques spectrales qui sont capturées dans une scène grâce à l’utilisation plus ou moins poussée et séparée de l’éventail du spectre électromagnétique. De multiples étroites bandes spectrales permettent un raffinement de la signature spectrale des objets terrestres afin de les identifier, et éventuellement, avec une résolution spectrale encore plus fine, même lorsque leur nature environnementale est similaire (p. ex. différents types de végétation). C’est ce type d’application que rendent possibles plus facilement les capteurs hyperspectraux. Lorsque les objectifs sont moins pointus, l’acquisition de quelques bandes spectrales dans le visible et l’infrarouge à l’aide d’un capteur multibande apporte tout de même une résolution spectrale suffisante pour distinguer des objets de différentes thématiques environnementales telles que l’eau et la végétation, et même davantage (à l’instar de l’exemple de la figure 1). La plus faible résolution serait donc celle d’un capteur monobande, ou, celle d’un capteur panchromatique rendant l’information spectrale de la région visible du spectre dans sa globalité (en incluant parfois une partie de l’ultraviolet ou de l’infrarouge), c.-à-d. dans une seule bande, sans compartimentation des différentes longueurs d’onde en différents intervalles (CCCOT, 2008 ; Liew, 1997 ; Provencher et Dubois, 2007). La résolution spectrale d’une image peut donc se définir comme étant la richesse compartimentée de l’éventail du spectre électromagnétique enregistré pour une scène, ou autrement dit, son niveau de décomposition spectrale (BELSPO, 2016 ; Campbell*, 2007 ; CCCOT, 2008 ; CILF, 1980b ; Jensen, 2005).

Les capteurs panchromatiques à faible résolution spectrale ont en contrepartie l’avantage de fournir des images à très haute résolution spatiale pouvant notamment être jumelées, lors du traitement de l’image, avec la grande résolution spectrale des images issues de capteurs multibandes. En mode panchromatique, le satellite QuickBird offre une résolution spatiale aussi fine que 0,61 m (ESA, 2017). D’après les tests réalisés par Provencher et Dubois (2007), ce niveau de résolution spatiale rejoint approximativement celui des photographies aériennes à grande échelle ou échelle locale [1 : 15 000] permettant de distinguer, lors de l’interprétation de l’image, des composantes au sol telles que véhicules, lampadaires, clochers d’église, rangées d’arbres et arbres isolés (FIG, 1965 ; OQLF, 1990b, 2005 ; PGGQ, 2004). À l’instar des possibilités de la photographie aérienne, ce type de capteur permet également d’observer la scène en vision stéréoscopique, donc de manière assimilable à la vision humaine, lorsqu’elle est acquise sous deux angles de visée différents (CCCOT, 2008 ; Desjardins, 2000 ; de Joinville, 2011a ; OQLF, 2004a, 2006c ; Provencher et Dubois, 2007). Dans la pratique, les images satellitaires à résolution de ≤ 0,6 m en vision stéréoscopique fournissent une précision suffisante pour la plupart des travaux en milieu urbain qui nécessitent des mesures spatiales par photogrammétrie (CELF, 2000d ; Dubois et al., 2000 ; OQLF, 2006d ; Provencher et Dubois, 2007). Toutefois, plus les pixels sont de petite taille, plus leur nombre accroît en se rapprochant de la limite de capacité de stockage du capteur pour couvrir une même région au sol (tel que mentionné plus haut, la capacité de stockage sera élaborée dans la prochaine section). En général, les scènes présentant les meilleures résolutions spatiales ont donc un plus petit format, ce qui pour un capteur sans visée flexible, p. ex. pouvant uniquement être centrée au point nadir, implique une plus faible répétitivité de passage dans le temps (Desjardins, 2000).

La résolution temporelle d’une image satellitaire a trait au temps que prend le satellite pour capturer une même scène à nouveau le long de son trajet orbital (syn. cycle de passage, temps de répétition, répétitivité temporelle, capacité de revisite, fréquenceTaux d'oscillation d'une onde. En télédétection, ce terme est surtout utilisé dans le contexte du RADAR. d’acquisition) ; plus ce temps est écourté, plus la résolution est fine. Ce type de résolution varie en fonction de facteurs tels la durée du trajet ou cycle orbital, le chevauchement des fauchées vers les pôles, mais également, la capacité qu’on certains capteurs de viser un même endroit de manière centrée au point nadir ou selon différents angles de visée (CCCOT, 2008 ; Desjardins, 2000 ; Dubois et al., 2000 ; de Joinville, 2011a,b). Pour ceux ayant cette capacité, tels les satellites pour l’observation de la Terre SPOT, la résolution temporelle d’un endroit donné peut être raffinée au fil du cycle en adaptant l’angle pour atteindre plusieurs acquisitions par semaine (CCCOT, 2008 ; Jensen, 2005 ; SI, 2010). Les images satellitaires permettent l’étude des changements annuels, saisonniers et hebdomadaires en un endroit précis, et avec des résolutions encore plus fines, le suivi peut être rapproché à quelques jours d’intervalle selon le capteur, voire, à un jour seulement (Jensen, 2000). Ce type de suivi sert entre autres de moyen préventif ou d’urgence pour faire face aux catastrophes telles des inondations ou déversements d’hydrocarbures (CCCOT, 2008), mais tout autre phénomène d’intérêt dont la dynamique se produit sur le court terme (p. ex. pour la gestion de la circulation routière) nécessitera une telle résolution (Campbell*, 2007). La résolution temporelle représente donc la capacité qu’offrent différentes couches d’informations à détecter l’évolution d’une même scène en lien avec sa répétitivité temporelle (ONU, 1990).

Le format des scènes issues de la télédétection ainsi que leurs différentes résolutions varient donc d’un capteur à l’autre. D’ailleurs, plusieurs ouvrages ont dressé une liste, plus ou moins structurée, des caractéristiques des scènes disponibles en télédétection, ou tout simplement, des capteurs d’acquisition ou des satellites et agences spatiales, et ce, parfois en retraçant l’historique de leurs avancées techniques ou de leur lancée en orbite (BELSPO, 2016 ; Bonn et Rochon, 1992 ; Butler et al., 1992 ; Campbell*, 2007 ; CCCOT, 2008 ; Desjardins, 2000 ; ESA, 2016 ; Jensen, 2000, 2005 ; Johnston, 2006 ; de Joinville, 2011a ; Liew, 1997 ; Meaden et Kapetsky, 1991 ; NASA, 2017 ; Provencher et Dubois, 2007 ; UVED, 2008). C’est aussi pourquoi la métadonnée accompagnant la scène est essentielle à sa bonne compréhension et son utilisation appropriée (OQLF, 2002c ; Jensen, 2005). Pour une image du capteur MSS de LANDSAT, la métadonnée d’une scène comprend notamment sa position géographique centrale, la bande spectrale concernée, l’angle et l’élévation du soleil, son identifiant unique dans le système mondial de géoréférence associé au satellite ainsi que la date d’acquisition (Campbell*, 2007 ; OQLF, 2004b). La métadonnée inclut en fait des détails relatifs aux résolutions de la scène et à d’autres détails jugés pertinents pour le traitement [pré-traitement] et l’interprétation de l’image (Caloz et Collet, 2001 ; Jensen, 2005).

Sous l’œil des capteurs satellitaires en anglais seulement

Modules interactifs de l’American Museum of Natural History – AMNH (2016)

Thème Image Description
Formats de scènes  

Le module Image footprint comparison (Horning, N., Koy, K.) permet de comparer le format des scènes de quatre différents capteurs satellitaires pour une même région de la surface terrestre de manière superposée dans la dernière section (en cliquant sur Next ). La taille de la zone couverte au sol d’une scène ou format varie ici entre 11 km et 2330 km selon le capteur ! Plus la zone couverte est petite, plus le détail perçu dans la scène est fin. [en haut] Le format de la scène couverte peut être sélectionné en combinaison [en bas] avec le capteur d’acquisition de la scène. En choisissant le plus petit format de couverture au sol, êtes-vous capable de déterminer le capteur offrant la plus faible résolution spatiale ?

Résolution spatiale  

Le module Comparing scale (Horning, N., Koy, K.) superpose les scènes de trois capteurs satellitaires ayant une résolution spatiale [à droite] allant de 4 à 500 m selon le capteur sélectionné par l’utilisateur. [en bas] Les scènes peuvent donc être visualisées séparément ou de manière superposée et [en haut] l’affichage ajusté jusqu’à la taille du plus petit élément de l’image (pixel). Pourriez-vous dire quel(s) capteur(s) permet(tent) de reconnaître la structure des montagnes Chiricahua et quel(s) capteur(s) offre(nt) la meilleure résolution spatiale ?

Résolution radiométrique d’un capteur multibande  

Le module Red, green and blue color mixing (Horning, N.) montre une gamme de valeurs de Le pour des bandes spectrales filtrées dans le rouge (R), le vert (V) et le bleu (B) d’un capteur multibande. [à droite] Il permet de simuler un nombre fini de valeurs de Le en guise de résolution radiométrique en mémorisant la couleur associée à l’intensité de chaque pixel de bande spectrale et à leur combinaison. [à gauche] L’intensité seule de Le du RÉM s’illustre toutefois uniquement par des niveaux de gris. [à droite] La vraie couleur de la scène d’un capteur multibande est reconstruite par assignation des couleurs mémorisées par bande spectrale et leur combinaison (R + V + B). [à gauche] L’utilisateur est libre d’interagir avec l’intensité de Le des trois couleurs fondamentales de la région visible du spectre et [à droite] peut constater le résultat de la combinaison choisie (couleur). Sauriez-vous donner la résolution radiométrique de ce capteur ? Pourriez-vous trouver la combinaison de Le des trois bandes spectrales dont le résultat est le blanc, et dire si cette couleur est le résultat de la saturation en RÉM du capteur ou au contraire d’une très faible Le ? Finalement, est-ce qu’une résolution pouvant mémoriser jusqu’à 1024 valeurs par pixel fournirait ou non une scène représentant les couleurs réelles de la scène plus finement que celle-ci ?

Résolution spectrale ou capture des signatures spectrales  

Le module Spectral curves and sensor band (Horning, N.) illustre [à droite] les courbes de réflectance d’objets terrestres de différentes natures thématiques (eau du robinet, neige fine, végétaux, asphalte, roches et minéraux) en superposant les bandes spectrales mesurées par différents capteurs (intervalles de longueurs d’onde). [à gauche] Les objets et les capteurs sont sélectionnés au choix de l’utilisateur. Observez bien les courbes de réflectance des différents objets et les bandes offertes par les différents capteurs. En comparaison au capteur etm+ du satellite landsat, le capteur aster du satellite terra permet une meilleure caractérisation de la courbe de réponse des objets réfléchissant le RÉM dans la portion représentée ici pour l’infrarouge (0,7 – 2,5 μm) en offrant plus de bandes spectrales pour la couvrir, alors que la résolution spectrale du capteur modis, présent sur les satellites aqua et terra, surpasse les deux premiers capteurs pour sa couverture dans la région visible du spectre (0,4 – 0,7 μm). Maintenant, avec le capteur aster, sélectionnez seulement le béton (concrete) et la neige fine (fine snow). Si vous aviez à faire la différence entre ces deux objets à partir d’une seule bande, laquelle selon vous serait la meilleure ? Est-ce que cette distinction pourrait être confirmée visuellement ? Quelle bande, par contre, serait le pire choix pour distinguer les deux objets, et à quelle région du spectre appartient-elle ? Si vous aviez, malgré cela, à travailler avec cette dernière, pourriez-vous choisir une deuxième bande de la même région et dont le rapport de bande vous permettrait de distinguer la neige du béton ? Finalement, parmi tous les capteurs en mode multibande (exclure le mode panchromatique), pourriez-vous reconnaître lequel est un capteur hyperspectral, et lequel offre la plus faible résolution spectrale ?

abréviations : aster, Advanced Spaceborne Thermal Emission and Reflection Radiometer ; aqua, terme latin signifiant « eau » ; etm+, Enhanced Thematic Mapper Plus ; modis, Moderate-Resolution Imaging Spectroradiometer ; terra, terme latin signifiant « terre ».

REFERENCES

American Museum of Natural History, 2016. Remote Sensing Interactives [En ligne]. Center for Biodiversity and Conservation. [www.amnh.org/our-research/center-for-biodiversity-conservation/biodiver sity-informatics/remote-sensing-interactives] (Consulté le 5 décembre 2016).

Belgian Science Policy Office, 2016. Petit guide de la télédétection – EOEdu Observons notre planète [En ligne]. [eoedu.belspo.be/fr/guide/index.htm]. (Consulté le 31 août 2016).

Bonn, F., Rochon, G., 1992. Précis de télédétection – Vol. I Principes et méthodes. Presses de l’Université du Québec/AUPELF, Sainte-Foy, 486 p.

Butler, M.J.A., Mouchot, M.-C., Barale, V., LeBlanc, C., 1992. Application de la télédétection à la pêche marine – Manuel d'initiation [En ligne]. FAO Document technique sur les pêches no. 295, Rome, 203 p. [www.fao.org/docrep/003/T0355F/T0355F00.HTM]

Caloz, R., Collet, C., 2001. Précis de télédétection – Vol. III Traitements numériques d’images de télédétection. Presses de l’Université du Québec/AUF, Sainte-Foy, 386 p. [books.google.ca/ books?id=9bepLPU5udQC&lpg=PP1&hl=fr&pg=PP1#v=onepage&q&f=false]

Campbell*, J.B., 2007. Introduction to Remote Sensing (4e Ed.). The Guilford Press, New York, 626 p. *Disponible en ligne : Campbell, J.B., Wynne, R.H., 2011. Introduction to Remote Sensing (5e Ed.) The Guilford Press, New York, 667 p. [books.google.ca/books?id=zgQDZEya6foC& lpg=PP1&hl=fr&pg=PP1#v=onepage&q&f=false]

Centre canadien de cartographie et d’observation de la Terre, 2008. Notions fondamentales de télédétection – Tutoriel [En ligne]. Disponible en français et anglais. Dernière mise à jour le 29 février 2016. [www.rncan.gc.ca/sciences-terre/geomatique/imagerie-satellitaire-photos-aeriennes/imagerie-satellitaire-produits/ressources-educatives/9310] (PDF téléchargé le 18 juillet 2016).

Commission d'enrichissement de la langue française, 2000a. Numérique – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ficheOqlf.aspx? Id_Fiche=26534563] (Consulté le 22 mars 2017).

Commission d'enrichissement de la langue française, 2000b. Données en hyperespace spectral – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.grand dictionnaire.com/ficheOqlf.aspx?Id_Fiche=26537425] (Consulté le 17 novembre 2016).

Commission d'enrichissement de la langue française, 2000c. Limite de résolution – [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=2653 7092] (Consulté le 23 novembre 2016).

Commission d'enrichissement de la langue française, 2000d. Iconométrie – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ ficheOqlf.aspx?Id_Fiche=26537153] (Consulté le 23 mars 2017).

Commission d'enrichissement de la langue française, 2007. Imagerie hyperspectrale – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ ficheOqlf.aspx?Id_Fiche=26538641] (Consulté le 17 novembre 2016).

Commission internationale de la langue française, 1980a. Résolution spatiale – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ ficheOqlf.aspx?Id_Fiche=8979437] (Consulté le 23 novembre 2016).

Commission internationale de la langue française, 1980b. Résolution spectrale – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ ficheOqlf.aspx?Id_Fiche=8979423] (Consulté le 24 novembre 2016).

Culture Montréal, 2015. Analogique – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=26540971] (Consulté le 23 mars 2017).

Desjardins, R., 2000. La télédétection – perspective analytique. Éditions ESTEM/AUPELF-UREF, Paris, 226 p. [www.bibliotheque.auf.org/index.php?lvl=notice_display&id=312]

Dubois, J.-M.M., Caloz, R., Gagnon, P. (réd.), 2000. La télédétection en francophonie – Analyse critique et perspectives. Actes des Journées scientifiques de Lausanne, 1999. AUF, Montréal, 463 p. [www.bibliotheque.auf.org/index.php?lvl=notice_display&id=263]

European Space Agency, 2016. Satellite Missions by Space Agency [En ligne]. [directory.eoportal.org/web/eoportal/satellite-missions/space-agencies] (Consulté le 31 août 2016).

European Space Agency, 2017. Quickbird-2 – Satellite Missions [En ligne]. [directory.eoportal.org/ web/eoportal/satellite-missions/q/quickbird-2] (Consulté le 23 mars 2017).

Fédération internationale des géomètres, 1965. Grande échelle – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche= 17099155] (Consulté le 24 mars 2017).

Harris Geospatial Solutions, 2016. Push Broom and Whisk Broom Sensors [En ligne]. Dernière mise à jour le 24 septembre 2013. [www.harrisgeospatial.com/Company/PressRoom/Blogs/TabId/836/ ArtMID/2928/ArticleID/13618/Push-Broom-and-Whisk-Broom-Sensors.aspx]

Jensen, J.R., 2000. Remote Sensing of the Environment – An Earth Resource Perspective. Prentice Hall, Upper Saddle River, 544 p.

Jensen, J.R., 2005. Introductory Digital Image Processing – A Remote Sensing Perspective (3e Ed). Prentice Hall, Upper Saddle River, 526 p.

Johnston, A.K., 2006. La Terre vue de l’espace [version française de Earth From Space, 2004, Smithsonian Institution, trad. par Guillaume Labbé]. Broquet, Saint-Constant, 272 p.

de Joinville, O., 2011a. Introduction à la télédétection [En ligne]. Dernière mise à jour en 2015 (Gagnon, D.). École nationale des sciences géographiques, Marne-La-Vallée, 185 p. [cours-fad-public.ensg.eu/course/view.php?id=29] (PDF téléchargés le 20 mars 2017).

de Joinville, O., 2011b. Géométrie des images spatiales [En ligne]. École nationale des sciences géographiques, Marne-La-Vallée, 59 p. [cours-fad-public.ensg.eu/course/view.php?id=83] (PDF téléchargés le 20 mars 2017).

Larousse, 1971. Photo-interprétation – Grande encyclopédie [En ligne]. [www.larousse.fr/archives/ grande-encyclopedie/page/10626] (Consulté le 23 mars 2017).

Larousse, 2017. Optique – Encyclopédie [En ligne]. [www.larousse.fr/encyclopedie/divers/optique/75111] (Consulté le 22 mars 2017).

Leroy, M., 2004. Télédétection spatiale – Principes physiques de mesure (Partie 1), Capteurs, atmosphère, surfaces continentales. Université Paul Sabatier, Toulouse, 173 p. [www.theia-land.fr/sites/default/files/imce/utilisateurs/M.Leroy - Principes physiques de mesure.pdf]

Liew, S.C., 1997. Principles of Remote Sensing [En ligne]. Dernière mise à jour en 2001. [www.crisp.nus.edu.sg/~research/tutorial/rsmain.htm] (Consulté le 14 novembre 2016).

Mayer, R.É., 2014. Notions de géographie physique. Éditions des archives contemporaines, Paris, 469 p. [books.google.ca/books?id=PYtlBAAAQBAJ&printsec=frontcover#v=onepage&q&f=false]

Meaden, G.J., Kapetsky, J.M., 1991. Geographical information systems and remote sensing in inland fisheries and aquaculture [En ligne]. FAO Fisheries Technical Paper no. 318, Rome, 262 p. [www.fao.org/docrep/003/t0446e/T0446E00.htm]

National Aeronautics and Space Administration, 2014. CATS – Measuring Clouds and Aerosols from the International Space Station [En ligne]. [www.nasa.gov/sites/default/files/files/ISS-CATS_Final_508.pdf] (PDF téléchargé le 18 novembre 2016).

National Aeronautics and Space Administration, 2016. Landsat 1 [En ligne]. Landsat Science. Dernière mise à jour le 14 décembre 2016. [landsat.gsfc.nasa.gov/landsat-1] (Consulté le 15 décembre 2016).

National Aeronautics and Space Administration, 2017. Remote Sensors [En ligne]. EarthData – Earth Observing System Data and Information System. Dernière mise à jour le 2 février 2017. [earthdata.nasa.gov/user-resources/remote-sensors] (Consulté le 3 février 2017).

Office québécois de la langue française, 1987. Landsat – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=17037108] (Consulté le 15 décembre 2016).

Office québécois de la langue française, 1990a. Résolution radiométrique – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=17023543] (Consulté le 24 novembre 2016).

Office québécois de la langue française, 1990b. Grande échelle – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=18055617] (Consulté le 24 mars 2017).

Office québécois de la langue française, 1993. Luminance énergétique – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8401341] (Consulté le 17 novembre 2016).

Office québécois de la langue française, 1997. Matrice – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=2078248] (Consulté le 23 mars 2017).

Office québécois de la langue française, 2000. Appareil photo – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8396827] (Consulté le 23 mars 2017).

Office québécois de la langue française, 2001a. Analogique – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=2071055] (Consulté le 23 mars 2017).

Office québécois de la langue française, 2001b. Pouvoir de résolution – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8365260] (Consulté le 23 novembre 2016).

Office québécois de la langue française, 2002a. Numérique – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8358474] (Consulté le 22 mars 2017).

Office québécois de la langue française, 2002b. Information – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8869871] (Consulté le 23 mars 2017).

Office québécois de la langue française, 2002c. Métadonnée – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8869869] (Consulté le 28 novembre 2016).

Office québécois de la langue française, 2004a. Vision stéréoscopique – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8358727] (Consulté le 23 mars 2017).

Office québécois de la langue française, 2004b. Géoréférencement – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8362929] (Consulté le 10 avril 2017).

Office québécois de la langue française, 2005. Échelle cartographique – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8869451] (Consulté le 23 mars 2017).

Office québécois de la langue française, 2006a. Scène – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8420664] (Consulté le 18 novembre 2016).

Office québécois de la langue française, 2006b. Photo-interprétation – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8869299] (Consulté le 23 mars 2017).

Office québécois de la langue française, 2006c. Vision stéréoscopique – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8358832] (Consulté le 23 mars 2017).

Office québécois de la langue française, 2006d. Photogrammétrie – Fiche terminologique [En ligne]. [www.granddictionnaire.com/ficheOqlf.aspx?Id_Fiche=8359048] (Consulté le 23 mars 2017).

Organisation des nations unies, 1990. Résolution temporelle – Fiche terminologique [En ligne]. Office québécois de la langue française. [www.granddictionnaire.com/ficheOqlf.aspx?Id_ Fiche=1703 2267] (Consulté le 28 novembre 2016).

Plan géomatique du gouvernement du Québec, 2004. Les échelles – La cartographie [En ligne]. Dernière mise à jour en 2008. [www.quebecgeographique.gouv.qc.ca/education/cartographie-echelle.asp] (Consulté le 26 avril 2017).

Provencher, L., Dubois, J.-M.M., 2007. Précis de télédétection – Vol. IV Méthodes de photointerprétation et d’interprétation d’image. Presses de l’Université du Québec/AUF, Québec, 468 p. [books.google.ca/books?id=C0MoyKarrbkC&lpg=PP1&hl=fr&pg=PP1#v=onepage&q&f= false]

Ressources naturelles Canada, 2014. Réception des données satellitaires – Tutoriel [En ligne]. Dernière mise à jour le 30 janvier 2014. [www.rncan.gc.ca/sciences-terre/geomatique/imagerie-satellitaire -photos-aeriennes/imagerie-satellitaire-produits/ressources-educatives/9612] (Consulté le 18 novembre 2016).

Ressources naturelles Canada, 2016a. Stations-relais pour satellites [En ligne]. Dernière mise à jour le 25 avril 2016. [www.rncan.gc.ca/sciences-terre/geomatique/imagerie-satellitaire-photos-aeriennes/ 10947] (Consulté le 18 novembre 2016).

Ressources naturelles Canada, 2016b. Imagerie satellitaire et produits [En ligne]. Dernière mise à jour le 25 avril 2016. [www.rncan.gc.ca/sciences-terre/geomatique/imagerie-satellitaire-photos-aeriennes/ imagerie-satellitaire-produits] (Consulté le 18 novembre 2016).

Spot Image, 2010. La programmation des satellites Spot – un service sur mesure [En ligne]. [www.intelligence-airbusds.com/files/pmedia/public/r1988_9_spot_programmation_satellites_fr_sept2010.pdf] (PDF téléchargé le 25 novembre 2016).

United States Geological Survey, 2016. What are the band designations for the Landsat satellites? Frequently Asked Questions [En ligne]. Landsat Missions. Dernière mise à jour le 29 novembre 2016. [landsat.usgs.gov/what-are-band-designations-landsat-satellites] (Consulté le 15 décembre 2016).

Université virtuelle environnement et développement durable, 2008. ENVCAL – Suivi de l'environnement par télédétection [En ligne]. Ressources pédagogiques numériques produites par UVED. [www.uved.fr/ressources-pedagogiques-numeriques/envcal.html] (Consulté le 9 mars 2017).

Show less