La atmósfera terrestre es una delgada capa de gas que rodea nuestro planeta, cuyo nombre que proviene de una combinación de dos palabras: una griega atmós que significa vapor y la palabra latina sphaera que quiere decir esfera.
El término atmósfera ha hecho que surjan varias palabras más para describir diversas divisiones de los sistemas ambientales de la Tierra:
• La hidrósfera, que abarca los océanos, los ríos y los lagos, así como la nieve y el hielo tanto en tierra como en el mar;
• La biósfera, es decir, los seres vivientes que habitan la Tierra, lo que significa sobre todo, a efectos de la teledetección, la vegetación terrestre y el fitoplancton oceánico;
• La geósfera, que abarca ámbitos como el balance de radiación de la Tierra, la topografía física de los continentes, los procesos geológicos que modifican la superficie del terreno, la actividad dinámica de los volcanes y el movimiento de las placas continentales de la Tierra:
• La antropósfera, o sea, la influencia de la humanidad en la superficie de la Tierra mediante estructuras y actividades que puedan causar importantes alteraciones del clima del planeta.
Desde el espacio exterior, la tecnología espacial permite a los científicos realizar estudios e investigaciones muy importantes, como ver restos de civilizaciones muy antiguas ocultas, caminos, senderos, viejos cauces de ríos, antiguos campos de cultivo, hasta morfologías del terreno.
Las imágenes provistas por satélites y radares espaciales (conocidas como técnicas de sensores remotos) muestran la tierra de una nueva manera, es decir desde varios cientos de kilómetros.
Iniciemos nuestro análisis con un breve recuento histórico:
La historia comienza en 1.859 cuando Gaxpar Felix de Turnachon toma la primera fotografía aérea desde un globo cautivo.
En 1.909 Wilbur Wrigth toma la primera fotografía aérea desde un avión.
La primera y segunda guerras mundiales impulsaron el desarrollo de la fotografía inicialmente con mejoras en los procesos fotográficos (1ª guerra) y posteriormente mejorando sensiblemente la +óptica de las cámaras y los emulsionados de las películas (2ª guerra).
La teledetección en el mundo tiene su inicio formal en 1.957 con el lanzamiento del primer cohete de la serie SPUTNIK por parte de Rusia.
En 1.960 la NASA realiza los primeros experimentos fotográficos y lanza el primer satélite TIROS de observación meteorológica.
En 1.972 es lanzado el primero de los famosos satélites LANDSAT.
En 1.986 es lanzado el satélite SPOT de Francia:
En 1.988 India lanza el IRS-1 y Canadá el RADARSAT.
En 1.999 aparece IKONOS, el primer satélite comercial.
También en 1.999 se lanza la Plataforma Terra:
En el año 2.000 tenemos a QUICKBIRD
La historia para Latinoamérica la inicia Brasil y sus satélite CBERS:
Argentina lanza sus satélites SAC:
Y Chile lanza sus FASAT:
La teledetección espacial es la tecnología que consiste en la adquisición de información de la superficie terrestre sin entrar en contacto material con ella, mediante sensores localizados en plataformas espaciales (satélites) y el posterior análisis de dicha información por medio de procesamiento digital e interpretación de imágenes. Es por esto que suele decirse que la teledetección permite obtener información «a distancia» de la superficie terrestre.
El intercambio de dicha información entre superficie terrestre y sensor se realiza a través de un flujo de energía electromagnética entre ambos. Cuando este flujo es unidireccional se llama teledetección pasiva, y cuando es bidireccional se habla de teledetección activa.
En la teledetección pasiva, la fuente primaria de radiación es el Sol, una fuente incoherente en la cual la energía se encuentra distribuida a lo largo del espectro electromagnético. Los sensores utilizados trabajan en la región del espectro visible y diversas partes del infrarrojo, incluido el térmico, con longitudes de onda del orden de micrómetros (un micrómetro equivale a la milésima parte del milímetro).
En la atmósfera, previamente a su interacción con la superficie terrestre, esta energía se ve sometida a modificaciones de intensidad y de distribución espectral. Tras la interacción, la energía reflejada vuelve a través de la atmósfera siendo, de nuevo, modificada antes de alcanzar el sensor, donde finalmente es captada. La información así obtenida es posteriormente enviada a las estaciones receptoras en Tierra para su procesamiento ulterior.
En la teledetección activa, el sistema terrestre que se pretende observar se irradia con una fuente artificial instalada en el propio satélite. Esto supone la independencia respecto de la iluminación externa, por lo cual tenemos la posibilidad de controlar la radiación electromagnética emitida (potencia, longitud de onda, polarización, ángulo de iluminación), registrando el sensor la radiación retro dispersada por la superficie terrestre. En este caso, los sensores que se utilizan trabajan en la región del espectro correspondiente a las microondas, con longitudes de onda del orden de centímetros. Ésta es la forma habitual de funcionamiento de los radares. La gran ventaja de esta técnica como sistema de observación de la Tierra, es que la radiación no se ve alterada por la presencia de la atmósfera o lo hace muy débilmente de manera que su funcionamiento es prácticamente independiente del clima, pudiendo «ver» a través de las nubes. Otra cualidad que convierte este instrumento en muy útil es su excepcional capacidad para penetrar, bajo ciertas condiciones, en el subsuelo.
Los satélites de teledetección pasiva emplean normalmente bandas infrarrojas, visibles o ultravioletas, en tanto que los satélites de teledetección activa usan normalmente ondas de radar en la región de las microondas.
Aunque las técnicas de teledetección pueden aplicarse a las imágenes obtenidas desde diferentes plataformas de observación, avión o satélites artificiales, son estos últimos las plataformas más adecuadas para obtener una visión de regiones de gran extensión. Además, los satélites presentan la gran ventaja de poder permanecer mucho tiempo en una órbita específica, lo cual permite una observación continua de la Tierra.
Como resultado final de la adquisición de datos por parte de un satélite obtenemos una imagen digital. Esto es, una representación de la superficie de la Tierra mediante una matriz numérica (cuyos valores están comprendidos entre 0 y 2n-1, siendo n el número de bits utilizados para representar la información digital), de tal manera que cada componente de dicha matriz es un punto imagen o píxel y su valor numérico representa la intensidad de radiación recibida por el sensor procedente de la correspondiente porción de superficie terrestre.
Consideremos ahora una explicación mas detallada, ayudados por el siguiente esquema:
Donde:
A: Es la fuente que provee la energía electromagnética necesaria al objeto de nuestro interés.
B: Es el medio, la atmósfera por medio del cual viaja la energía tanto como desde la fuente al objeto como desde el objeto al sensor de detección.
C: Cada objeto en particular interactúa con la energía recibida de manera diferente, dependiendo de sus propiedades particulares y el tipo de radiación incidente al mismo.
D: Es el detector remoto que recoge la radiación electromagnética reflejada o emitida por el objeto y la atmósfera.
E: Es el procesamiento que tiene la información pro medio del cual los datos se convierten en imágenes en forma digital.
F: con la imágenes en forma digital, éstas se efectúa la interpretación y el análisis de ellas, ya sea de manera visual o por medios computarizados para extraer la información relevante sobre el objeto que fue iluminado o que emitió la radiación captada.
G: Finalmente logramos aplicaciones particulares de la información extraída sobre el objeto de nuestro interés, obteniendo un mejor conocimiento y pudiendo resolver problemas particulares relacionados con el mismo.
Otros conceptos importantes, relacionados con el tema son los siguientes:
Poder de resolución: esta es una de las características básicas de un sensor y tiene que ver con la capacidad para distinguir entre dos datos adyacentes.
El poder de resolución se manifiesta en diversos aspectos tales como:
- Poder de resolución espacial: Se refiere al tamaño de la superficie representada en cada pixel. Este poder de resolución espacial se ha venido incrementando de manera notoria y actualmente se alcanzan valores cercanos a un metro o menos.
- Poder de resolución temporal: Es el período de tiempo que pasa entre dos observaciones seguidas de una única zona de la superficie de la tierra, el cual puede variar entre unas pocas horas o varios días, semanas, meses o incluso años.
- Poder de resolución espectral: Tiene que ver con la banda o bandas de longitud de onda que pueden ser captadas por el sensor, por ejemplo, un sensor que solo pueda captar la luz visible tendrá menor resolución que otro que también pueda captar la luz infrarroja o la ultravioleta.
- Poder de resolución radiométrica: Es la cantidad de variación en la energía que puede ser detectada por el sensor, se habla entonces de sensores más o menos sensibles a la variación de energía.
Una vez recibidos los datos por parte del satélite, se almacenan en una matriz numérica en la cual cada una de sus posiciones corresponde a un pixel de información, cuyo valor numérico es proporcional a la intensidad de la radiación.
Hasta ahora solo hemos conseguido algunos datos, pero para que dichos datos se conviertan en información útil, debemos corregirlos. Para ello, generalmente se aplican tratamientos especiales a los datos obtenidos así:
- Corrección Atmosférica: se emplea para reducir la distorsión debida a la dispersión provocada por la difusión atmosférica de la radiación.
- Georreferenciación: consiste en relacionar la imagen obtenida con una referencia espacial de tal modo que se identifique claramente la zona de la tierra a la cual corresponde dicha imagen.
- Tratamiento de imágenes: Normalmente se obtienen imágenes en blanco negro que corresponden a bandas angostas del espectro electromagnético, pero para facilitar la labor de interpretación, se someten a diversos procesos matemáticos tales como:
o Imágenes a color: para conseguir imágenes en colores reales se combinan varias imágenes del mismo sitio en verde, azul y rojo.
- Imágenes en falso color: cuando se poseen sensores que detectan radiaciones por fuera del rango visible, normalmente en la parte del infrarrojo térmico, es usual que las zonas frías se coloreen de azul y las más cálidas de color rojo.
- Firmas espectrales: cada tipo de superficie terrestre tiene su propio espectro electromagnético, prácticamente su firma espectral, por lo cual es posible desarrollar un procedimiento matemático que permite generar unos índices espectrales de la tierra.
Recién en este punto comenzamos entonces nuestro análisis digital de la información obtenida, pudiendo efectuar realces que nos permitan destacar determinada información de nuestro interés, transformaciones bien sean gráficas o matemáticas que reordenan valores para poder aislar los factores que queremos analizar oclasificaciones que nos permitan separar el espacio analizado en zonas de diferentes clases. Las clases normalmente están definidas en función de características físicas de nuestro interés, tales como diversas cubiertas vegetales, así como también por uso del terreno como ganadería, explotación minera, etc.
Ahora bien, con el propósito de considerar los diferentes procedimientos disponibles, a continuación veremos un ejemplo:
Comencemos presentando la imagen originalmente obtenida por el satélite:
Ahora veamos el resultado de la aplicación de un primer realce, en este caso radiométrico de estiramiento:
Continuando con un realce de ecualización, este es el resultado obtenido:
A veces es necesario aplicar técnicas de suavizado:
En otras ocasiones se debe mejorar la nitidez:
Concluimos el realce con el proceso de detección de bordes:
Ahora la imagen está preparada para poder efectuarle transformaciones: una muy utilizada es la llamada PCA, la cual es una transformación que reordena los valores de los píxeles conforme a nuevos ejes de variación para determinar los principales componentes de la imagen a estudiar, pues entre los dos primeros componentes se concentra más del 70% de la variación espectral de una imagen. Veamos pues una imagen y su transformación PCA:
La transformación IHS, donde I-Intensidad o luminosidad: cantidad de negro agregado al color, H-Hue Matiz o croma: color puro y S-Saturación: cantidad de blanco agregado al color, se utiliza para extraer o agregar efectos de sombreado a partir de la banda de intensidad:
También se emplean modelos matemáticos para mejorar la imagen, entre los más usado están las series de Fourier, en las cuales a partir de la extracción de parámetros matemáticos se logran los patrones de las imágenes. Veamos la base y el proceso matemático:
Procedimiento:
Y el resultado de su aplicación a una imagen:
También es posible la aplicación de realces combinados, por ejemplo la fusión de imágenes en distinta resolución espacial:
Para destacar el verdor, la humedad y la brillantez de la imagen, se emplea la transformación llamada Tasseled Cap:
Cuando el interés es sobre la cantidad de biomasa vegetal, se emplea la transformación: cocientes de bandas índices de vegetación, a la izquierda observamos la imagen sin transformar y en la parte superior izquierda con el índice NDVI, en tanto que la parte inferior izquierda el índice MSAVI:
El proceso final al cual se someten las imágenes es el de clasificación, el cual es, como ya dijimos, una partición del espacio geográfico en zonas de diversas clases para analizar diferentes características físicas. Aquí es donde tenemos las aplicaciones útiles para el desarrollo de nuestro país, por ejemplo: en áreas urbanas: encontrar zonas con distinta clasificación residencial, ver las diversas clases de uso de la tierra en determinado lugar; en geología: para investigar la distribución de minerales en superficie para relacionarlo con procesos de formación geológica del sitio de interés; en vegetación y suelos: para averiguar la proporción de suelos y vegetación de un terreno y su localización geográfica, comparar el uso del suelo contra la cobertura del mismo.
Para adelantar el proceso de clasificación es imprescindible elaborar un modelo cuantitativo del sistema, que se compone de tres modelos a saber:
- Modelo de la escena: muestra como se distribuye estadísticamente en el espacio el fenómeno a estudiar. Se pueden definir escenas como las siguientes:
- Paisajes homogéneos versus heterogéneos.
- Límites rígidos versus límites difusos.
- Espacio continuo versus espacio fragmentado.
- Procesos determinísticos versus proceso ocasionales.
- Modelo del sensor: lleva a cabo un proceso de muestreo con cierto tamaño de pixel y en determinadas regiones espectrales. Para determinadas combinaciones de bandas, las firmas pueden identificarse perfectamente, mientras que en otras regiones espectrales se superponen, se confunden.
- Modelo de procesamiento: para determinar el área específica de interés como clasificación de patrones por ejemplo.
Para conseguir una clasificación objetiva es necesario por último definir un criterio de optimización que garantice la precisión deseada en la clasificación.
Hay dos métodos de clasificación:
- No Supervisados o automáticos.
- Supervisados para lo cual se emplean muestras o áreas de entrenamiento.
El procedimiento es el siguiente:
- El clasificador encuentra los grupos.
- Se calculan los parámetros estadísticos de cada grupo.
- Se asigna cada pixel a un grupo de acuerdo a un criterio de decisión.
Veamos un ejemplo de clasificación no supervisada para encontrar clases
Homogéneas detectadas automáticamente:
En la clasificación no supervisada los algoritmos se concentran en encontrar clases de datos que sean separables, como es automático los resultado obtenidos pueden no tener valor informativo. En este caso se toman muestras que si tienen un valor informativo pero que pueden no ser separables desde el punto de vista espectral, entonces es puede ser necesario combinar diversos métodos para lograr la separación deseada, para ello se emplean inicialmente los métodos no supervisados para obtener listas exhaustivas y luego de manera manual se emplean métodos supervisados con los cuales se unen clases que no existen como agrupadas pero que pueden formar parte de un continuo, obteniéndose entonces una imagen como las siguientes:
Hemos realizado este fascinante recorrido estudiando la teledetección, comenzando por la definición de sus términos más importantes, siguiendo con un breve recuento histórico, sus fundamentos teóricos y lo que es más importante, sus aplicaciones prácticas.
Ahora que nuestro país parece decidido a enfrentar el reto de instalar en órbita nuestro propio satélite, creemos valioso haber presentado ésta recopilación de información que demuestra la relevancia del tema, pero tampoco podemos despedirnos sin considerar algunos aspectos fundamentales en el largo proceso que ahora estamos iniciando:
En primer lugar, la tecnología de la Teledetección está íntimamente ligada al tema de los satélites, su lanzamiento y mantenimiento. Tratándose de estos temas tan técnicos, el desarrollo histórico nos muestra claramente que tres países han logrado permanecer competitivos: USA quienes son los que más satélites han colocado en órbita, y sus competidores europeos: Francia de una parte y Rusia por supuesto, no solamente por ser el líder inicial, sino porque ha continuado siéndolo desarrollando una técnica de lanzamientos muy segura y económica, así como menores requerimientos de mantenimiento.
Confiamos plenamente en la capacidad de nuestros expertos en el tema, en la seguridad que analizarán adecuadamente la totalidad de los requerimientos y el cumplimiento de los mismos por parte de todos los oferentes, y tomarán una decisión que contemple todas nuestras necesidades y sea la mejor tanto en los aspectos técnicos como económicos, pensando en nuestro futuro.
Bibliografía:
http://cerezo.pntic.mec.es/~falda/teledet/td_als01.htm
http://www.um.es/geograf/sigmur/teledet/tema01.pdf
http://ingenieria.udistrital.edu.co/moodle/course/view.php?id=307