Noviembre 2002 | INICIO
Física UltraModerna

Geofísica de la Atmósfera: Pronosticando la Contaminación Atmosférica mediante Redes Neuronales

.
El DS N° 59 de 1998 del MINSEGPRES indica la posibilidad de utilizar un Predictor para tomar medidas que eviten o atenúen la probable ocurrencia de un episodio crítico de contaminación atmosférica. Inspirado en esto, en 1999 se contrató al experto estadounidense Joseph Cassmassi para desarrollar un Predictor que cumpliera con los requisitos del DS N° 59. La confiabilidad del Predictor fue evaluado por el Departamento de Geofísica de la Universidad de Chile, arrojando los siguientes resultados:
* Confiabilidad Global: 71%
* Confiabilidad frente a pronosticar buenas condiciones: 91%
* Confiabilidad frente a alerta: 44%
* Confiabilidad frente a preemergencia: 60%
Lamentablemente, año a año las condiciones dinámicas del sistema cambian. En 1999 una desfavorable condición de ventilación ("PMCA alto") gatillaba obligatoriamente una situación crítica. Esto se ve reflejado en que el modelo Casmassi aplicado a estaciones como Pudahuel ponderan la ventilación (o el PMCA) con un factor cercano al 40%. Hoy en día esto ya no es así.

Las Redes Neuronales son capaces de implementar diversas tareas no algorítmicas. Aquí observamos una RN capaz de realizar eficientemente un análisis granulométrico de las rocas de una mina.

EXISTE OTRA ALTERNATIVA
Para soslayar las dificultades se necesita un modelo que se ADAPTE a los cambios en la dinámica del sistema. Por otro lado, la meteorología no tiene porqué ser necesariamente el factor gatillante si ne qua non de una situación crítica. Un episodio de contaminación se asemeja a una obra de teatro: se necesita de actores (= material particulado) y de un escenario adecuado (= condiciones meteorológicas adversas). Si no se tiene AMBAS cosas, el episodio evidentemente no puede ocurrir.

Según la tesis de Postítulo en Consultoría Medioambiental "Desarrollo de un Predictor de MP10 basado en la utilización de Redes Neuronales" (USACH, año 2000), se puede obtener mejores resultados con una Red Neuronal. Una Red Neuronal corresponde a un Sistema Experto que se adapta a los cambios en la dinámica del sistema, dado que imita el comportamiento del cerebro humano (se definen neuronas y sinapsis). Así es como se puede llegar a confiabilidades globales cercanas al 90%.

En esta tesis se parte del supuesto de que TODA la información necesaria para modelar el sistema (meteorología, día feriado o no, características de la capa de inversión térmica, etc.) se halla tácitamente en la forma de la curva "Material Particulado v/s t", la cual siempre está evolucionando. El problema estriba en saber cómo encontrar esa información. Aquí es cuando entran en acción las RN.

En Abril nos enteramos con agrado de la implantación de un sistema paralelo para predecir episodios críticos basado en Redes Neuronales. El modelo ha sido desarrollado por el Grupo de Pronóstico USACH y según La Tercera (15 de Abril de 2002): "(...) El modelo lineal, utilizado desde 1998, tiene un 69% de certeza, mientras que el sistema neuronal puede llegar a sobrepasar el 80%".

El Modelo Neuronal desarrollado en Marzo de 2003 fue entrenado con datos del año 2001 y testeado con datos del año 2002. Los resultados son los siguientes:
* Confiabilidad Global: 88.8%
* Falsos Positivos: 15 (Modelo oficial: 30)
Cabe señalar que a diferencia de todos los modelos existentes, la RN considera a Santiago como un sistema indivisible (las estaciones no se modelan aisladamente = anti-reduccionismo)

NOTAS
* ¿Qué es un episodio crítico?
Es toda situación donde el máximo promedio de 24 horas del Material Particulado MP10 es mayor o igual que 195 mg/m3N (norma internacional: 66 mg/m3N)
* ¿Qué es el MP10?
Corresponde al Material Particulado con diámetro inferior a 10 mm.
* ¿Qué es lo que pronostican los modelos?
La concentración máxima promediada en 24 hrs móviles del MP10 para el día siguiente
* ¿Cuál es la norma primaria de Calidad del Aire en Chile?
Según el DS N° 59, la norma para el MP10 es de 150 mg/m3N como concentración de 24 horas. Sin embargo, cuando esto ocurre se considera equivalente a "situación regular" y no se toma ninguna medida anticontaminante. La medida recién se toma al alcanzar los 195 mg/m3N. Por lo tanto:
- Norma teórica: 150 mg/m3N
- Norma práctica: 195 mg/m3N

BAJAR PAPER DE REDES NEURONALES
VER CASSMASSI 2.0 (Abril de 2005) | Actualización 2008 del PPDA
Modelo Neuronal superó al Oficial


conama sesma cenma pm10 pm 10 mp 10 mp10 contaminacion Cassmasi Cassmassi Casmasi Casmassi

El Modelo Casmassi asume que la Contaminación atmosférica depende de las siguientes variables:
VARIABLES RELACIONADAS CON LAS EMISIONES
* Día de la semana
* Día feriado o no feriado
* Delta de concentraciones según el día de la semana (modelo CONAMA)
* Delta de concentraciones según el día de la semana para la estación de monitoreo específica
VARIABLES DE MP10 PARA CADA ESTACIÓN
* Concentración máxima de 24 hrs observada el día anterior
* Concentración promedio de 24 hrs observada a las 10 hrs del día actual
* Delta de concentraciones medias de 24 hrs. a las 10 hrs (en la última hora, últimas 3 hrs, últimas 6 hrs)
VARIABLES METEOROLÓGICAS (radiosondeo en Quintero, Santo Domingo a las 12 UTC del día actual)
* PMCA estimado intuitivamente para el día siguiente (PMCA = Potencial Meteorológico de Contaminación Atmosférica)
* Altura, Temperatura, humedad y viento observados a los cuatro niveles estándar de presión
* Altura, presión, temperatura de la base y tope de la capa de inversión térmica cercana a la superficie
* Variables derivadas de las anteriores (espesores y deltas con el día anterior)
x

EL DIFÍCIL CAMINO PARA CONTAR CON UN BUEN MODELO DE PRONÓSTICO (MP)

Como todas las cosas relacionadas con el medio ambiente, aquí no funciona la Ingeniería Económica. No basta que el MP tenga una excelente estadística (criterio técnico) ni que sea barato (criterio económico). A continuación, algunas de las barreras tácitas que debe superar:
1) Un error del MP alternativo es mucho más grave que el mismo error cometido por el MP oficial.
Esta es una típica estrategia negociadora: poner énfasis en los errores y no en los aciertos. Por ejemplo, para desacreditar al MP alternativo basta con hacer que pronostique erróneamente una situación de emergencia (situación que sería fácil de magnificar). Esto se consigue proporcionando datos de entrada mal validados y/o utilizando como input un factor de ventilación (o PMCA) con poca precisión. Este factor se encuentra entre 1 y 5 y su incerteza es de ± 0.5. Luego, si el PMCA es 1, la incerteza será del 50% y si es 5, la incerteza será del 10%.
2) No basta que el MP alternativo cometa muchos menos errores que el MP actual, dado que un error del modelo oficial no se cuenta como tal si ese día la CONAMA no consideró creíble su pronóstico (equivale a decir que las adivinas nunca se equivocan porque nunca les creemos...)
3) La situación de "Alerta Ambiental" se definió para apaciguar a la opinión pública y mostrar que se hace algo para evitar la contaminación. Todos los expertos coinciden que el efecto de las medidas anticontaminantes que se toman durante una Alerta es despreciable (del ORDEN del 1%). Luego, no importa mucho que el MP alternativo sea claramente superior al MP actual en lo que a situaciones de Alerta se refiere (pero ésto no es problema del modelo, si no de la mala elección de la medida)
4) A veces las situaciones críticas duran muy poco (2-3 horas). En ese caso, se definen arbitrariamente como situaciones del tipo "Bueno a Regular". Por ejemplo, si el MP alternativo pronostica una Preemergencia y esta ocurre entre las 22:00 y las 24:00, se considerará como un error del modelo, porque la Preemergencia "nunca ocurrió" (a pesar de que las estaciones marcaban Preemergencia)
5) Por último, si el MP alternativo consiguiera sortear los anteriores cuatro obstáculos, aún existe una barrera infranqueable: los grupos de lobby. Organismos como @@@ abogan por un MP deficiente. Para ellos el modelo ideal es aquel que pronostica "Bueno a Regular" cuando ocurre una situación crítica, porque así se evita que ese día cientos de industrias tengan que cerrar. En otras palabras, se traspasa una externalidad (la contaminación) desde las industrias a los grupos más débiles de la población (los ancianos y los bebés que colapsan los hospitales durante una situación crítica).
NOTA: El modelo se puede desacreditar ya sea por exceso o por defecto y así la decisión final resulta ser política y no técnica:
- Por exceso: si el modelo pronostica tantas situaciones críticas erróneas que nadie lo considera confiable (corresponde a Cassmassi durante los años 2000-2004)
- Por defecto: si el modelo prácticamente no pronostica situaciones críticas.



* 20-May-04: Modelo de contaminación atmosférica
Estimados Sres de TGT:
Me parece muy interesante la información que proveen en su página.
Me gustaría solicitarles detalles del Modelo de Contaminación usado oficialmente para la predicción de situaciones críticas de contaminación atmosférica. Me basta con alguna referencia "conseguible", ojalá lo más matemática y técnica que se pueda. Mi interés es sólo académico, no tiene relación alguna con mi trabajo. De antemano gracias y felicitaciones.
manreyes@puntodevista.cl - Ingeniero Matemático

Estimado Manuel
El modelo Cassmassi es un modelo bastante simple en sus hipótesis (como que la contaminación depende muy fuertemente del escenario o "PMCA") y asume que el clima es modelable con técnicas estadísticas de regresión lineal múltiple, lo cual está demostrado que es una aproximación muy burda (Según los trabajos de Edward Lorenz, pionero en Teoría del Caos). En palabras del científico chileno Mario Markus: " Si queremos predecir el tiempo de aquí a tres días necesitaremos 10 mil estaciones meteorológicas (...) Si queremos predecir de aquí a 14 días, sería posible, pero necesitaríamos no 10 mil, sino 100 millones de estaciones (... Y si queremos un mes de anticipación) deberíamos disponer de 10 elevado a 20 estaciones (... es decir) una cada cinco milímetros cuadrados".

Para ver las variables de entrada del modelo Cassmassi, dar clic AQUÍ.

* Artículo oficial sobre el Modelo Cassmassi: "Improvement of the forecast air quality and of the knowledge of the local meteorological conditions in the metropolitan region", publicado por CONAMA

Por otro lado, el Modelo Neuronal se ha hecho funcionar desde 1996 y cada año ha mostrado ser mucho mejor que el modelo oficial.
Ejemplo con el año 2003:

El Modelo Neuronal se basa en un análisis inicial del Caos de las series temporales con el objetivo de encontrar algún "punto de vista" desde donde todo se vea "más ordenado". A continuación esta información es utilizada para crear la arquitectura óptima de una Red Neuronal. Por su parte, la gente del CENMA no entiende como un modelo así se puede adaptar a escenarios tan distintos como uno pre-frontal v/s uno post-frontal, siendo que cualquier manual básico sobre TI explica que las Redes Neuronales son predictores no-lineales.
Las variables de entrada del Modelo Neuronal (versión 2003) son:
- PM10 a las 18:00 y a las 19:00 hrs por cada estación relevante (La Florida, El Bosque, Parque O'Higgins, Pudahuel y Cerrillos)
- Amplitud térmica hoy
- Amplitud térmica pronosticada para mañana
- PMCA
pronosticado para mañana por el CENMA (margen de error promedio del pronóstico del orden del 20%)

* Artículo sugerido sobre el Modelo Neuronal: "Prediction of maximum of 24-h average of PM10 concentrations 30 h in advance in Santiago, Chile", paper publicado en Atmospheric Environment 36 (año 2002)

22-May 04
Estimados Sres de TGT:
Esperaba un nivel técnico verdaderamente "profesional" de parte de la CONAMA. Estoy absolutamente decepcionado. De hecho yo los defendía, diciendo que los errores de predicción son factibles, que había que contar con qué frecuencia ocurrían en el año y de esa forma evaluar el modelo. Además, la gente sólo recuerda los hechos malos, no los buenos.
Pero creer que la estadística de regresión lineal múltiple es capaz de predecir decentemente cualquier variable física con precisión, es demostrar un desconocimiento vergonzoso, comparable sólo con intentar predecir la contaminación con una serie de tiempo AR(1) (sale un ridículo "random walk", gráficamente muy bonito, pero con cero capacidad de predicción).
Si bien las Redes Neuronales nunca me han gustado por "principios", pienso que en este caso seguramente es la solución. Yo más bien hubiese usado procesos estocásticos, pero es mi "deformación" profesional (hice mi memoria en ese tema en Beaucheff).
Leeré con atención la información que me han enviado y les agradezco mucho el tiempo que se han tomado para responderme (...)


QUÉ ES UNA RED NEURONAL

Una Red Neuronal Artificial (RNA) es una estructura que, inspirada en la biofísica del cerebro, permite resolver tareas de clasificación y predicción. El "Perceptrón" corresponde a la RNA más simple y posee las siguientes características:
* Una capa de entrada con ni neuronas aferentes.
* Una capa de salida con no neuronas eferentes.
* Coeficientes wij que representan la intensidad de la sinapsis entre la neurona i de la capa de entrada y la neurona j de la capa de salida.
* Función de transferencia (actividad neuonal j - ésima) igual a la función:
.....Sj = Kj uj, para una RNA lineal.
.....Sj = Kj Tanh(uj) para una RNA no lineal.
Donde:
uj = Si wijri = Estímulo eficaz sobre la neurona j-ésima de la capa de salida.
ri = Actividad de la neurona i-ésima de la capa de entrada.

* La RNA "aprende" (modifica su set de sinapsis) al minimizar iterativamente la función
E = Sj (Sj - dj )2 / 2
(Energía cinética relativa)
Donde:
dj = Valor de salida deseado en la neurona j
Sj = Valor realmente obtenido en la neurona j

Cabe señalar que el algoritmo que indica como minimizar la función E es conocido como "Algoritmo de Retropropagación". Los valores de dj se obtienen a partir de un subconjunto de los datos disponibles, constituyendo así el conjunto de "Vectores de Entrenamiento". En base a la experiencia acumulada (sinapsis modificadas por el set de entrenamiento), la RNA podrá efectuar predicciones sobre los "Vectores de Test".


REFERENCIAS
* Las Máquinas Neuronales en Mundo Científico, n° 87 (volumen 9)
* Especial de Neurociencias de Investigación y Ciencia, noviembre de 1992
* Programas Inteligentes en Investigación y Ciencia, noviembre de 1995
* Donald O Hebb, teórico de la mente en Investigación y Ciencia, marzo de 1993
* Adiestramiento de las máquinas en Investigación y Ciencia, junio de 1995
* Desarrollo de un Predictor de MP10 basado en la utilización de Redes Neuronales (Tesis, año 2000)


www.geofisica.cl