470 likes | 615 Views
Eliminación de variables para diagramas de influencia con nodos super valor. Manuel Luque Gallego Proyecto Elvira II San Sebastián 19-21 de Mayo de 2004. Índice. Introducción Problema Eliminación de variables para DI con nodos SV Ejemplo de evaluación Conclusiones
E N D
Eliminación de variables para diagramas de influencia con nodos super valor Manuel Luque Gallego Proyecto Elvira II San Sebastián 19-21 de Mayo de 2004
Índice • Introducción • Problema • Eliminación de variables para DI con nodos SV • Ejemplo de evaluación • Conclusiones • Perspectivas futuras y Elvira
Introducción • Diagramas de influencia • Comunicación entre analistas de decisiones y expertos • Evaluación directa • Representación compacta de la estructura probabilista • Éxito en ámbitos médicos
Introducción • Problema médico: Carcinoma pulmonar no microcítico
Introducción • Evaluación de DI: MEU = C0 maxD1 C1 maxD2 ... maxDn Cn p(C|D)V • Eliminación Ci: • Eliminación Di: max • Secuencia de eliminación legal según <. • Separabilidad • Aplicar operadores a parte de nuestra función de valor • Reducción de la dimensionalidad de las operaciones • Aparición en los DI de los nodos super-valor
Introducción • Explotación de la separabilidad de la función de utilidad en el problema del carcinoma pulmonar no microcítico
Problema planteado • Posibilidades de evaluación • Opción A: Algoritmos para DI sin nodos SV • Opción B: Algoritmo de Tatman y Shachter para DI con nodos SV • Opción A: (Eliminación de variables para DI) • Ventaja: Eficiencia del algoritmo para DI • Inconvenientes: • Pérdida de la separabilidad de la función de valor • Determinación de las variables requeridas
Problema planteado • Inconvenientes de la opción A • Pérdida de la separabilidad de la función de valor • Suma (o producto) implícita de los nodos de valor • Potenciales de utilidad de mayor tamaño
Problema planteado • Inconvenientes de la opción A • Determinación de las variables requeridas • Eliminación según orden total Eliminar A • Eliminación de A une V1 y V2
Problema planteado • Inconvenientes de la opción A • DI tras la eliminación de A Aparecen como requeridas variables que no lo eran (en este caso B)
Problema planteado • Opción B: (Algoritmo de Tatman y Shachter) • Ventaja: Conservación de la separabilidad de la función de valor • Inconvenientes: • Ineficiencia de la inversión de arcos • Pronta destrucción de la estructura de nodos super-valor en algunos casos • Determinación de las variables requeridas
Problema planteado • Inconvenientes de la opción B • Ineficiencia de la inversión de arcos
Problema planteado • Inconvenientes de la opción B • Pronta destrucción de la estructura de nodos super-valor
Problema planteado • Inconvenientes de la opción B • Tras eliminar A y proceder a eliminar D ésta requerirá B, cuando no debería
Eliminación de variables para DI con nodos SV • Objetivos • Eliminar la necesidad de invertir arcos • Mantener el máximo tiempo posible la separabilidad de la función de valor • Mejora en la determinación de las variables requeridas • Potenciales de utilidad de menor tamaño • Mejora en la explicación del razonamiento
Eliminación de variables para DI con nodos SV • Planteamiento del problema: Evaluación MEU = C0 maxD1 C1 maxD2 ... maxDn Cn p(C|D)V • Eliminación Ci: • Eliminación Di: max • Secuencia de eliminación legal según <. • Matriz: p(C|D)V • V puede presentar + y * anidados
Eliminación de variables para DI con nodos SV • Ejemplo • MEU = B maxD AΦ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B))) • Matriz: Φ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B))) • Eliminar A • Sacar factor común Φ2(B) • Dificultad de análisis con esta representación • Representación unívoca de la matriz a través de un árbol
Eliminación de variables para DI con nodos SV • Representación en árbol • Dos tipos de nodos en el árbol • Operandos: Potenciales de probabilidad y de utilidad • Operadores: + y * • La raíz del árbol inicial siempre es un * • Hijos de la raíz son los potenciales de probabilidad y la estructura de nodos de valor
Eliminación de variables para DI con nodos SV • Evaluación • Eliminación de variables se traduce en transformaciones sobre el árbol • Dificultad: • Estudio de las transformaciones lícitas a realizar sobre el árbol • Estudio de la aplicación de los operadores A y maxD al árbol
Eliminación de variables para DI con nodos SV • Operaciones lícitas a realizar sobre el árbol • Operaciones de compactación • Secuencia de operadores del mismo tipo
Eliminación de variables para DI con nodos SV • Operaciones lícitas a realizar sobre el árbol • Operaciones de compactación • Reducción de nodos operadores con hijos operandos hoja
Eliminación de variables para DI con nodos SV • Operaciones lícitas a realizar sobre el árbol • Aplicación de la propiedad distributiva • Son transformaciones de equivalencia aplicables en cualquier subárbol
Eliminación de variables para DI con nodos SV • Eliminación de A aleatoria • Comportamiento de Acon el + A [Φ1 + Φ2]= AΦ1 + AΦ2 • La aplicación del operador A a un árbol + supone aplicarlo a cada uno de sus hijos
Eliminación de variables para DI con nodos SV • Eliminación de A aleatoria • Aplicación del operador A a los potenciales hoja Marginalizar el potencial en A • Comportamiento de Acon el *, si Φ1no depende de A y Φ2sí depende de A A [Φ1 * Φ2] = Φ1 AΦ2
Eliminación de variables para DI con nodos SV • Problema de la eliminación de A aleatoria con el * • Necesidad de que sólo una rama del * dependa de A para poder aplicar recursivamente el operador A
Eliminación de variables para DI con nodos SV • Resolución del problema de la eliminación de A aleatoria con el * • Suposición de árbol factorizado Hijos de * son + o bien potenciales hoja gracias a la aplicacación de las propiedades de compactación • Objetivo: Reducción del número de ramas dependientes de A en los * • Reducción del número de ramas dependientes de A a través de la compactación de potenciales hoja hijos de * dependientes de A
Eliminación de variables para DI con nodos SV • Resolución del problema de la eliminación de A aleatoria con el * • Reducción del número de ramas dependientes de A a través de la aplicación de la propiedad distributiva entre ellas
Eliminación de variables para DI con nodos SV • Árbol obtenido tras aplicar la propiedad distributiva
Eliminación de variables para DI con nodos SV • Propiedad distributiva en la resolución del problema de la eliminación de A aleatoria con el * • Decidir qué * distribuir y respecto a qué dos ramas • Optimizaciones: • Distribuir siempre los * de mayor profundidad en el árbol • Realizar todas las compactaciones posibles antes de distribuir y tras distribuir • Justificación de las optimizaciones: • Son cálculos que aunque se pospongan siempre habrá que realizarlos • Posponerlos puede llevar a tener que repetirlos en varias partes del árbol
Eliminación de variables para DI con nodos SV • Ejemplo de por qué no se ha de posponer la compactación • Desarrollamos sólo un sumando en producto de sumas para preservar al máximo la estructura
Eliminación de variables para DI con nodos SV • Ejemplo tras aplicar distributiva
Eliminación de variables para DI con nodos SV • Eliminación de D decisión • Aplicación del operador maxD a los potenciales hoja Marginalizar el potencial en D • Comportamiento del maxD con un operador (+ ó *) : maxD[Φ1op Φ2]= Φ1 op maxDΦ2 si Φ1no depende de A y Φ2sí depende de A • Sólo se puede aplicar recursivamente el operador maxDsi hay una sola rama dependiente de D • Unir todas las ramas dependientes de D en una sola, reducirla en un potencial hoja y aplicar el operador maxD
Eliminación de variables para DI con nodos SV • Ejemplo de eliminación de decisión (I)
Eliminación de variables para DI con nodos SV • Ejemplo de eliminación de decisión (II)
Eliminación de variables para DI con nodos SV • Ejemplo de eliminación de decisión (III)
Eliminación de variables para DI con nodos SV • Ejemplo de eliminación de decisión cuando más de una rama depende de la decisión
Eliminación de variables para DI con nodos SV • Ejemplo de eliminación de decisión cuando más de una rama depende de la decisión • Necesidad de reducir las ramas dependientes a una sola
Eliminación de variables para DI con nodos SV • Procedimiento general • Determinar el orden de eliminación de variables • Construir el árbol equivalente a la matriz y factorizarlo • MIENTRAS queden variables por eliminar • Sea X la variable a eliminar • SI X es variable aleatoria • Aplicar sucesivamente el proceso de compactar hojas y distribuir * en relación a X hasta que no queden nodos * que distribuir • Marginalizar en A en las hojas del árbol dependientes de A • Si X es decisión • Determinar el menor subárbol que abarque todas las ramas dependientes de D • Reducir a una hoja dicho subárbol • Maximizar en D dicho potencial hoja • FIN MIENTRAS • Corrección y terminación del algoritmo
Ejemplo de evaluación • MEU = B maxD AΦ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B))) • Matriz: Φ1(A) Φ2(B) (U1(A)+(U2(A, D)*U3(B)))
Ejemplo de evaluación • Eliminar A • Aplicar distributiva en el nodo raíz (único a distribuir)
Ejemplo de evaluación • Eliminar A • Compactar tras distribuir • Marginalizar en las hojas
Ejemplo de evaluación • Eliminar D • Reducir subárbol con más de una rama
Ejemplo de evaluación • Eliminar D • No ha sido necesario reducir ningún subárbol • La estrategia óptima para D no ha dependido de B
Ejemplo de evaluación • Eliminar B • Aplicar distributiva en el único nodo a distribuir (raíz)
Ejemplo de evaluación • Eliminar B • Compactar tras distribuir • Marginalizar en las hojas
Conclusiones • Se ha evitado la carga computacional de la inversión de arcos • La separabilidad de la función de valor se preserva el máximo tiempo posible • Realiza una menor destrucción de la estructura de nodos de valor que el algoritmo de Tatman y Shachter • Sólo aplica la distributividad cuando es necesario y a las ramas imprescindibles • Potenciales de un tamaño menor durante la evaluación • Mejora en la determinación de las variables requeridas • No es necesario “eliminar redundancia” antes de comenzar la evaluación • Variables requeridas para cada decisión son en el peor caso las mismas que con el algoritmo de Tatman y Shachter y un subconjunto en otros casos (ver ejemplo) • Lo mismo le sucede respecto al algoritmo de eliminación de variables de Jensen “tradicional”
Perspectivas futuras y Elvira • Situación actual de la “eliminación de redundancia” en Elvira • Realizada antes de la evaluación a través del algoritmo de Faguiouli y Zaffalon • Método de eliminación de variables de Jensen “tradicional” con unión de los nodos de utilidad • En este momento DI con nodos SV son evaluados con algoritmos para DI sin nodos SV (ReductionAndEvalID) • Incorporación del algoritmo propuesto a Elvira (VariableEliminationSV) • Estudio de mejoras en la aplicación de la distributividad • Selección de las ramas a distribuir • Reestructuración previa de las ramas antes de distribuir para conseguir mayor factorización tras ella (agrupar ramas no dependientes de la variable a eliminar) • En la implementación el árbol se transforma en grafo dirigido para conseguir un ahorro en memoria tras distribuir (el ahorro en tiempo ya lo daba la compactación) al compartir subárboles