El sensor tiene una visión completa del mundo cuando completa todas sus órbitas
Desde su atalaya a 824 kilómetros (512 millas) sobre la Tierra, el Visible Infrared Imaging Radiometer Suite (VIIRS) en el satélite NPOESS Preparatory Project (NPP) tiene todos los días una visión completa de nuestro planeta. Esta imagen de arriba del 24 de noviembre de 2011 es la primera imagen global completa del VIIRS (pinchar en ella para ampliar).A bordo del satélite NPP lanzado el 28 de octubre de 2011, el VIIRS adquirió su primera medición el 21 de noviembre. Hasta la fecha, las imágenes son de carácter preliminar, se utilizan para medir la salud de los sensores mientras los ingenieros continúan encendiendo los equipos para su pleno funcionamiento.
Naciendo desde el sur y subiendo hasta el norte en el lado diurno de la Tierra, las imágenes de la superficie tomadas por el VIIRS son largas cuñas que miden 3.000 kilómetros (1.900 millas) de ancho. Las hileras sucesivas de cada órbita se superponen entre sí, de modo que al final del día el sensor tiene una visión completa del mundo. El Ártico no aparece porque es demasiado oscuro para ver la luz visible durante el invierno.
El satélite NPP fue colocado en una órbita solar sincrónica, un único camino que lleva el satélite sobre el ecuador en el mismo lugar (de terreno) en el tiempo y en cada órbita. Así que, cuando el NPP vuela sobre Kenia, alrededor de las 1:30 pm está en el terreno. Cuando el NPP llega a Gabón - unos 3.000 kilómetros al oeste- en la órbita siguiente, está cerca de las 1:30 pm en el terreno. Esta órbita permite al satélite mantener el mismo ángulo entre el Sol y la Tierra, para que todas las imágenes tengan una iluminación similar (perdón si este párrafo no es muy comprensible porque es muy técnico para la traducción).
La iluminación constante es evidente en la imagen global diaria. Las rayas de la luz solar (reflejo solar) se reflejan en el mar en el mismo lugar en el lado izquierdo de cada franja. El ángulo constante es importante porque permite a los científicos comparar las imágenes de un año a otro sin preocuparse por los cambios extremos en las sombras y la iluminación.
La imagen también muestra una banda de niebla a lo largo del lado derecho de cada franja de órbita. Cuando la luz atraviesa la atmósfera, rebota en las partículas y se dispersa, haciendo que la atmósfera tenga un aspecto nebuloso. El efecto de dispersión es más pronunciado a lo largo del borde de la franja, donde el sensor está buscando un ángulo a través de la atmósfera. Los científicos pueden corregir este efecto de dispersión, pero para hacerlo necesitan medidas de un rango de longitudes de onda. El grado en que se dispersa la luz depende en parte de la longitud de onda de la luz. La luz azul, por ejemplo, se dispersa más que la luz roja, que es por lo qué el cielo es azul. El VIIRS toma 22 medidas en diferentes longitudes de onda de la luz, pero todavía no todos los detectores del sensor están funcionando al máximo rendimiento. Los que miden la luz infrarroja térmica aún no están lo suficientemente ajustados como para recolectar mediciones fiables.
Una vez que el VIIRS comience a operar al completo, producirá una serie de mediciones de la temperatura del océano, las nubes y lugares de los incendios. Estas medidas le ayudarán a extender el registro de anteriores sensores como el Espectrómetro de Imágenes de Resolución Moderada (MODIS). VIIRS es muy similar al MODIS, pero vuela a una altitud mayor por lo que mide todo el planeta, sin lagunas. (Las mediciones diarias del MODIS tienen lagunas en el ecuador. Ver la imagen MODIS del 24 de noviembre). El VIIRS también ve la Tierra con menos detalle, 375 metros por píxel, en comparación con los 250 metros por píxel del MODIS.
Image by NASA’s NPP Land Product Evaluation and Testing Element. Caption by Holli Riebeek.