Presidencia de la Nación

¿Qué tienen en común una cámara fotográfica y un satélite?

Fernando Hisas, Gerente de Proyectos Satelitales de la CONAE, repasó la evolución de los instrumentos que toman imágenes de la tierra desde cientos de kilómetros de altura, teniendo en cuenta los sensores remotos y el radar SAR.


Los satélites de observación de la Tierra generan imágenes de nuestro planeta que sorprenden por su particular belleza. Largos causes de ríos zigzagueantes, bosques frondosos y ciudades iluminadas en medio de la oscuridad, captadas a cientos de kilómetros de altura, ofrecen un retrato cenital alejado de la mirada cotidiana del hombre de a pie. En el Día Mundial de la Fotografía, nos preguntamos qué tienen que ver estas imágenes con otras tomadas por cámaras ópticas y digitales que hoy usamos hasta en los celulares.

“Las cámaras ópticas tienen mucho en común con los sensores ópticos que se utilizan en el espacio. En rigor, básicamente son la misma cosa, porque son una representación de la realidad, afirmó Fernando Hisas, Gerente de Proyectos Satelitales de la Comisión Nacional de Actividades Espaciales (CONAE), para quien la fotografía es una pasión que lo acompañó durante toda su vida. “Siempre me fascinó el mundo de la fotografía y el cine, sobre todo la parte técnica. Mis viejos me compraron la primera cámara cuando estaba en la escuela primaria y en quinto grado de la escuela primaria ya tenía mi propio laboratorio donde revelaba mis fotos, comentó.


Fernando Hisas, Gerente de Proyectos Satelitales de la CONAE.

Hisas obtuvo el título de Ingeniero Electromecánico en la Universidad de Buenos Aires e ingresó a la CONAE para desarrollar su profesión, aunque siempre continuó dedicándose a la fotografía como un hobbie. “En una cámara fotográfica, el espectro de luz se separa en tres bandas (rojo, verde y azul) a través de filtros del sensor o de los filtros químicos de la película, para después reproducir la misma imagen desde el punto de vista del ojo humano. Esta imagen se puede reproducir sólo con tres bandas porque se corresponde el rango espectral del ojo humano”, explicó.

“Si sacamos la limitación del ojo humano, podemos observar y analizar imágenes en un espectro mucho más amplio del visible”, comentó. Para ejemplificar este aspecto, se refirió a los imágenes que proporcionaba el SAC-C, el primer satélite argentino de observación de la Tierra, puesto en órbita en el año 2000. Este satélite contaba con una Cámara Multiespectral de Resolución Media - MMRS (Multispectral Medium Resolution Scanner, por sus siglas en inglés), que consistía en un sensor capaz de captar imágenes tanto en el rango visible como en el infrarrojo. Esto permitía observar características del planeta invisibles al ojo humano.


El satélite SAC-C con los paneles solares plegados, en su integración al lanzador Delta II, previo a su lanzamiento el 21 de noviembre de 2000.

“El instrumento del SAC-C tenía un diseño particular de bandas en la zona del azul y podía distinguir muchas tonalidades en el mar que a simple vista no se veían, representándolo con una variedad de gamas para distinguir, por ejemplo, alimento en suspensión y contribuir a la actividad de la pesca y el cuidado del recurso.

La evolución de estas tecnologías se trasladó al SABIA-Mar (Satélite Argentino-Brasileño de Información Ambiental Marina), concebido como una misión de Observación de la Tierra con aplicaciones prioritarias en el estudio del mar y costas, cuya puesta en órbita está prevista para el año 2022. Hisas destacó que el sensor superespectral de este satélite distingue 19 bandas. *“Incluso puede tomar bandas en el rango térmico y en el infrarrojo cercano, y podría ver cosas a las que nuestros ojos no podrían acceder. Por ejemplo, el infrarrojo cercano provee información sobre el estrés hídrico de las plantas. Antes de que la vegetación se ponga amarilla, en el rango infrarrojo el sensor acusa un impacto de falta de agua que no se observaría a simple vista”, dijo el ingeniero de la CONAE.

Radar, un ojo muy particular

Con la Misión SAOCOM Argentina avanzó aún más en las imágenes satelitales,** a partir del desarrollo del Radar de Apertura Sintética** (SAR, por sus siglas en inglés). Se trata de una compleja tecnología de observación de la Tierra que representa un importante cambio respecto de los sensores ópticos usuales. Este instrumento activo trabaja en la porción de las microondas en banda L del espectro electromagnético y es capaz de atravesar las nubes, la vegetación y parcialmente el suelo.


Las Islas Malvinas vistas por el satélite radar SAOCOM 1A (izquierda) en 2019 y por el satélite óptico SAC-C (derecha) en 2001.

Si en el espectro electromagnético nos alejamos de la banda óptica y bajamos la frecuencia, podemos llegar a la zona de las microondas. En ese rango, si reemplazamos a la luz sol de la cámara fotográfica por el pulso que emite y recibe el radar, a través de un proceso de reconstrucción (de ahí el nombre de apertura sintética), generamos una imagen.

Hisas propuso pensar las imágenes con “una visión amplia" **. En el caso del radar, se trata de la imagen de un ojo muy particular, que no tiene necesariamente que ver con la imagen óptica, pero sin embargo cuando uno lo mira encuentra enormes analogías, porque **los cambios de comportamiento al pulso de radar tienen mucho que ver con los cambios en el comportamiento de los colores y de las luces. Es decir, el borde de un río se ve porque cambia el comportamiento de la luz y el color, y por eso lo ves con una cámara óptica, pero lo ves de manera similar en el radar porque cambia también el comportamiento electromagnético”*.

Cambia el fenómeno físico para producir la imagen, pero el concepto es el mismo. El radar genera fotos como resultado de la interacción de un pulso electromagnético con la materia, y a través de un proceso de reconstrucción genera una imagen. En la cámara óptica, donde el sol ilumina, la energía electromagnética también interactúa con la materia que está en “el pixel”, igual que el radar. De esa interacción se retrodispersa luz que capto desde la cámara del satélite, igual que la cámara de fotos común, y la analizo con los filtros arriba en la cámara y luego mando a tierra esa información.

“Desde el punto de vista de la imagen, tanto una como la otra son representaciones de un fenómeno físico que se produce en cada pixel de la imagen, ya sea por la luz solar o por el pulso de microondas. Lo que pasa es que la imagen óptica es mas común para las personas porque desde que nacemos identificamos las cosas visualmente. Para nosotros decir que la planta es verde es una obviedad. Lo que pasa es que el ojo no tiene la experiencia de ver como un radar, concluyó.


El satélite SAOCOM 1B y su radar totalmente desplegado, de 32 metros cuadrados, en las pruebas mecánicas realizadas en 2019, en la sala anecoide del Laboratorio de Integración y Ensayos del Centro Espacial de la CONAE en Córdoba.

Scroll hacia arriba