Bienvenidos a la web de CONAMA 2006
 
Fondo documental
Presentación
Documentos
Actividades
Personas
Instituciones
Informe CONAMA 2006
Galería multimedia
Archivo fotográfico
Vídeos
Sala de Prensa
Así fue CONAMA 8

Plataforma de trabajo
Acceso a la plataforma de trabajo de CONAMA
    
¿Olvidó su contraseña?




Detalle de la actividad seleccionada Volver a listado
GT-27. Teledetección y sensores ambientales.
Jueves, 30 de Noviembre de 2006

Conclusiones Programa Participantes

 Doc. final    Doc. síntesis  

 Si en el congreso pasado se propugnó la ingeniería actual como nexo de unión entre las diferentes ponencias que integran el grupo de trabajo, en éste se ha elegido un nuevo área de las tecnologías de la información y las comunicaciones, la inteligencia ambiental, como elemento integrador de los distintos trabajos que conforman el grupo. 

  La nueva inteligencia ambiental, al igual que cualquier otra área de las Tecnologías de la Información y las Comunicaciones, tiene con respecto al medio ambiente dos vertientes bien diferenciadas. Por un lado, introduce mejoras en los sistemas y dispositivos de protección y control del medio ambiente a través de las nuevas técnicas para el desarrollo de aplicaciones distribuidas basadas en Internet y la movilidad de los terminales. Por otro lado, ocasiona algunos riesgos de impacto ambiental causados por el propio funcionamiento de esta nueva tecnología. 
 

 La aparición de Internet ha favorecido en los últimos años la puesta en marcha de nuevas técnicas para el desarrollo de sistemas distribuidos. La más habitual hasta ahora, la arquitectura cliente – servidor, está dejando paso a otros sistemas como el Grid o Pear to Pear (P2P), que son distribuidos, heterogéneos y dinámicos. Todo esto redunda en la ubicuidad del sistema, más aún si se tiene en cuenta la movilidad de los terminales:
2.5 G, 3G y Bluetooth en telefonía móvil, entornos Wifi y Wimax para ordenadores portátiles pasando por las PDA’s, por citar los casos más conocidos. 

  Las redes de lidares terrestres, trabajando de manera coordinada, ofrecen a la vez, por una parte, la alta resolución temporal y vertical disponible de los instrumentos individuales y, por otra, el muestreo espacial de una zona geográfica extensa, de lo que pueden inferirse distribuciones de aerosoles cuatridimensionales (espacio más tiempo). Además, los lidares terrestres pueden ofrecer prestaciones que aún tardarán en poderse implementar en instrumentos embarcados en satélites. 

  Los sensores remotos y los datos adquiridos mediante redes de sensores “in situ” poseen una serie de características intrínsecas en cuanto a periodicidad temporal, resolución espacial y parámetros medidos, etc, que ciertamente son complementarias. La tecnología actual tanto emergente como ya consolidada (redes de datos, sensor web, telecomunicaciones, interoperabilidad, etc) permite acceder a los datos derivados de ambos tipos de sensores en tiempo real desde múltiples plataformas e instantáneamente comparables. 
 

 Los “Sensores web” son un caso particular de la nueva tecnología de Servicios Web (Web Services). Un servicio Web es una colección de protocolos y estándares que sirven para intercambiar datos entre aplicaciones de software desarrolladas en lenguajes de programación diferentes y ejecutadas sobre cualquier plataforma utilizando como vía de comunicación Internet. La interoperabilidad se consigue mediante la adopción de estándares abiertos. Las organizaciones OASIS y W3C son los comités responsables de la arquitectura y reglamentación de los servicios Web. Para mejorar la interoperabilidad entre distintas implementaciones de servicios Web se ha creado el organismo WS-I, encargado de desarrollar diversos perfiles para definir de manera más exhaustiva estos estándares.

 Las aplicaciones y servicios geomáticos, así como los productos de valor añadido, están ofreciendo soluciones en una gran variedad de áreas relacionadas directamente con la gestión de las crisis naturales, como la vigilancia global, el ordenamiento territorial, la adecuada relación con el medio ambiente, el uso armónico de los recursos naturales, la planificación y gestión de medidas de reacción y recuperación post desastre, etc. 

  La utilización de estas tecnologías geoespaciales en apoyo a la gestión de los desastres naturales está despertando un gran interés hoy en día, pero, por determinadas circunstancias, que están fuera del ámbito de este estudio, queda reducida a un grupo de expertos en este dominio, que son minoritarios en comparación con el gran número de personas preocupadas o conscientes de la importancia del problema. 

  La exposición sobre tecnologías geoespaciales incluida en este Grupo de Trabajo, pretende acercar al público no experto y a los potenciales usuarios el conocimiento sobre la capacidad de las tecnologías espaciales, en particular las geoespaciales, para la prevención y gestión de desastres naturales. 

  La medida en continuo de la calidad físico química y biológica del agua de las costas es un reto difícil que requiere la aplicación de una tecnología de medidas que aún no ha sido suficientemente contrastada. Existen boyas marinas para la medida de corrientes, oleaje, parámetros meteorológicos, etc., pero no para la medida de parámetros de calidad fisicoquímica ni biológica, salvo algunas experiencias aisladas, como la que se expone en este grupo de trabajo. Como objetivos de la experiencia destacan el desarrollo del producto comercial equivalente, con el conocimiento de tecnologías, materiales, equipos y parámetros medibles, con un nivel de dificultad aceptable. Este material estará disponible en enero de 2007 
 

 A lo largo de los ríos, los residuos metálicos de las actividades mineras se pueden reconocer en una imagen multiespectral debido a que presentan una firma espectral que permite diferenciarlos de las cubiertas vegetales o del suelo desnudo. Al margen del compromiso que debe admitirse entre la resolución espacial de las imágenes satelitales y las dimensiones de la cuenca, es posible discernir los tramos contaminados (por aplicación de ratios) y de esta forma elaborar un mapa temático de tramos afectados de forma natural, independientemente de que lo pudieran ser tras un posible desbordamiento espontáneo. 
 

 Mediante la generación de cartografía temática aplicando el criterio Isodata de clasificación no supervisada; se obtuvieron buenas cartografías a partir de 22.957 píxeles correspondientes a 20 de las 44 clases de CORINE seleccionadas en el trabajo de campo. La precisión resultante fue del 87.6%, la cual se eleva al 91.6% si agrupamos las clases en función de la rugosidad asociada a cada una de ellas (coeficiente de rugosidad de Manning). El coeficiente kappa, que resume la información procedente de la matriz de contingencia, tiene un valor de 0.8685, es decir la clasificación obtenida está próxima al 87% mejor que la que se esperaría de asignar clases a los píxeles de forma aleatoria. Dado que el valor es superior a 0.75 se puede considerar una clasificación de buena a excelente. Las clasificaciones obtenidas a partir de la imagen Landsat, su agrupación en base a la rugosidad y el mapa de usos del suelo CLC-2000 correspondiente, supone una mejora evidente en el procesamiento de las imágenes en relación a la base de datos de la CLC-2000 utilizada habitualmente como “input” en los modelos de simulación.

 El estudio de los niveles de concentración de contaminantes en aguas residuales es un hecho de especial relevancia. La directiva europea 2000/60/CE determina los parámetros indicadores de la calidad de las aguas subterráneas, estableciendo la necesidad de controlar, entre otros, la concentración de nitratos. Basándose en algoritmos evolutivos, puede obtenerse un método de cálculo de dicha concentración y estimar la cantidad de nitratos presente en una muestra de agua residual.




 



Desarrollo y soporte: Varadero Software Factory (VSF)