1 / 78

Robótica Inteligente

Robótica Inteligente. L. Enrique Sucar Marco López ITESM Cuernavaca. Manejo de Incertidumbre. Introducción Repaso de probabilidad Clasificador bayesiano simple Redes bayesianos. Incertidumbre. La incertidumbre surge porque se tiene un conocimiento incompleto / incorrecto del

Download Presentation

Robótica Inteligente

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Robótica Inteligente L. Enrique Sucar Marco López ITESM Cuernavaca

  2. Manejo de Incertidumbre • Introducción • Repaso de probabilidad • Clasificador bayesiano simple • Redes bayesianos

  3. Incertidumbre La incertidumbre surge porque se tiene un conocimiento incompleto / incorrecto del mundo o por limitaciones en la forma de representar dicho conocimiento, por ejemplo: • Un sistema experto médico • Un robot móvil • Un sistema de análisis financiero • Un sistema de reconocimiento de voz o imágenes

  4. Incertidumbre • Un robot móvil tiene incertidumbrerespecto a lo que obtiene de sus sensores y del resultado de sus acciones, así como de su conocimiento del mundo

  5. Causas de Incertidumbre Existen varias causas de incertidumbre que tienen que ver con la información, el conocimiento y la representación.

  6. Información • Incompleta • Poco confiable • Ruido, distorsión

  7. Conocimiento • Impreciso • Contradictorio

  8. Representación • No adecuada • Falta de poder descriptivo

  9. Manejo de Incertidumbre • Para tratar la incertidumbre, hay que considerarla en forma explícita en la representación e inferencia • Para ello se han desarrollado diversas formas de representar y manejar la incertidumbre

  10. Técnicas Simbólicas * Lógicas no-monotónicas * Sistemas de mantenimiento de verdad (TMS, ATMS) * Teoría de endosos

  11. Técnicas Numéricas • Probabilistas • Cadenas de Markov (ocultas) • Campos de Markov • Redes bayesianas • Redes de decisión • Procesos de decisión de Markov • Alternativas • * Empíricas (MYCIN, Prospector) • * Lógica difusa • * Teoría de Dempster-Shafer • Lógicas probabilistas

  12. Técnicas • Por ejemplo, para el robot móvil: • Si el sensor de distancia (sonar) regresa una lectura de 5 m, se considera una distribución de probabilidad alrededor de dicha lectura • ¿Cómo representamos esta distribución? ¿Cómo combinamos las lecturas de varios sensores?

  13. Técnicas • Ejemplo de un “mapa probabilista” construido considerando la incertidumbre de los sensores y de la odometría

  14. ¿Qué es probabilidad? • Definición matemática • Principales reglas • Variables aleatorias

  15. Definición • Dado un experimento E y el espacio de muestreo S, a cada evento A le asociamos un número real P(A), el cual es la probabilidad de A y satisface los siguientes axiomas S A

  16. Axiomas • 0 £ P(A) £ 1 • P(S) = 1 • P(A È B) = P(A) + P(B), A y B mutuamente exclusivas

  17. Teoremas • P (0) = 0 • P (¬A) = 1 – P(A) • P(A È B) = P(A) + P(B) – P(A ÇB)

  18. Probabilidad Condicional P(A | B) = P(A Ç B) / P(B) • Probabilidad de que ocurra un evento dado que ocurrió otro: • Dado que el dado cayó impar, cuál es probabilidad de que sea un número primo? • Dado que tiene catarro, cuál es la probabilidad de que tenga gripe?

  19. Regla de Bayes • De la definición de probabilidad condicional se puede deducir: P(B | A) = P(B) P(A | B) / P(A), dado P(A) > 0 • Esto permite “invertir” las probabilidades, por ejemplo obtener la P de una enfermedad dado un síntoma, con conocimiento de la P de los síntomas dado que alguien tiene cierta enfermedad

  20. Probabilidad Total • Dada una partición, B, de S, la probabilidad de un evento A se puede obtener como: P(A) = Si P(A | Bi ) P(Bi) B1 B3 B4 A B2 B5

  21. Teorema de Bayes • Con la definición de probabilidad total, el teorema de Bayes se puede escribir como: P(B | A) = P(B) P(A | B) / Si P(A | Bi ) P(Bi)

  22. Eventos independientes • Dos eventos son independientes si la ocurrencia de uno no altera la probabilidad de ocurrencia del otro: P(A | B) = P(A) ó P(B | A) = P(B) • Lo que es equivalente a: P(A ÇB) = P(A) P(B) • Independientes ¹ mutuamente exclusivos

  23. Variables Aleatorias • A cada evento A se le asigna un valor numérico X(A) = k, de forma que a cada valor le corresponde una probabilidad P(X = k) • X es una variable aleatoria • Ejemplos: • X = Número de águilas en N lanzamientos • Y = Número del dado al lanzarlo • Z = Valor de lectura de un sensor

  24. Tipos de Variables Aleatorias • Discretas: el número de valores de X (rango) es finito o contablemente finito • Continua: puede asumir todos los posibles valores en cierto intervalo a – b , ejemplos: • X = temperatura ambiente • Y = tiempo en el que falle cierto dispositivo • Z = distancia del robot a la pared

  25. Distribución de probabilidad • Variables discretas: p(X): p(X) ³0 S p(X) = 1 • Variables continuas: f(x): f(x) ³ 0 ò f(x) = 1

  26. Estadísticas • Moda: valor de mayor probabilidad • Mediana: valor medio (divide el área en 2) • Promedio: valor “esperado”: E(X) =Sx X p(X) • Varianza: dispersión s2(X) = Sx (X – E(X))2 p(X) • Desviación estandar s(X) = Ö s2

  27. Formulación • Muchos problemas se pueden formular como un conjunto de variables sobre las que tenemos cierta información y queremos obtener otra, por ejemplo: • Diagnóstico médico o industrial • Percepción (visión, voz, sensores) • Clasificación (bancos, empleadores, ...) • Modelado de estudiantes, usuarios, etc.

  28. Formulación • Desde el punto de vista de probabilidad se puede ver como: • Un conjunto de variables aleatorias: X1, X2, X3, ... • Cada variable es generalmente una partición del espacio • Cada variable tiene una distribución de probabilidad (conocida o desconocida)

  29. Variables y Particiones • A = {A1, A2, A3} • B = {B1, B2, B3, B4, B5} B1 B3 B4 B2 B5 A1 A2 A3

  30. Preguntas • Dada cierta información (como valores de variables y probabilidades), se requiere contestar ciertas preguntas, como: • Probabilidad de que una variable tome cierto valor [marginal a priori] • Probabilidad de que una variable tome cierto valor dada información de otra(s) variable(s) [condicional o a posteriori]

  31. Ejemplo • Supongamos que se tiene 3 sensores infrarrojos que pueden regresan el valor de intensidad de 0 a 9: • 0 – negro • 9 – blanco • Dada cierta configuración de los sensores determinar la probabilidad de que la línea blanca este en el “centro”, “izquierda” o “derecha”

  32. Ejemplo S1 S2 S3

  33. Clasificación • El concepto de clasificación tiene dos significados: • No supervisada: dado un conjunto de datos, establecer clases o agrupaciones (clusters) • Supervisada: dadas ciertas clases, encontrar una regla para clasificar una nueva observación dentro de las clases existentes

  34. Clasificación • El problema de clasificación (supervisada) consiste en obtener el valor más probable de una variable (hipótesis) dados los valores de otras variables (evidencia, atributos) ArgH [ Max P(H | E1, E2, ...EN) ] ArgH [ Max P(H | E) ] E = {E1, E2, ...EN}

  35. Tipos de Clasificadores • Métodos estadísticos clásicos • Clasificador bayesiano simple (naive Bayes) • Descriminadores lineales • Modelos de dependencias • Redes bayesianas • Aprendizaje simbólico • Árboles de decisión, reglas • Redes neuronales

  36. Clasificación • Consideraciones para un clasificador: • Exactitud – proporción de clasificaciones correctas • Rapidez – tiempo que toma hacer la clasificación • Claridad – que tan comprensible es para los humanos • Tiempo de aprendizaje – tiempo para obtener o ajustar el clasificador a partir de datos

  37. Regla de Bayes • Para estimar esta probabilidad se puede hacer en base a la regla de Bayes: P(H | E) = P(H) P(E | H) / P(E) P(H | E) = P(H) P(E | H) / Si P(E | Hi ) P(Hi) • Normalmente no se require saber el valor de probabilidad, solamente el valor más probable de H

  38. Valores Equivalentes • Se puede utilizar cualquier función monotónica para la clasificación: ArgH [ Max P(H | E) ] ArgH [ Max P(H) P(E | H) / P(E) ] ArgH [ Max P(H) P(E | H) ] ArgH [ Max log {P(H) P(E | H)} ] ArgH [ Max log P(H) + log P(E | H) ]

  39. Clasificador bayesiano simple • Estimar la probabilidad: P(E | H) es complejo, pero se simplifica si se considera que los atributos son independientes dada la hipotesis: P(E1, E2, ...EN | H) = P(E1 | H) P(E2 | H) ... P(EN | H) • Por lo que la probabilidad de la hipótesis dada la evidencia puede estimarse como: P(H | E1, E2, ...EN) = P(H) P(E1 | H) P(E2 | H) ... P(EN | H) P(E) • Esto se conoce como el clasificador bayesiano simple

  40. Clasificador bayesiano simple • Como veíamos, no es necesario calcular el denominador: P(H | E1, E2, ...EN) ~ P(H) P(E1 | H) P(E2 | H) ... P(EN | H) • P(H) se conoce como la probabilidad a priori, P(Ei | H) es la probabilidad de los atributos dada la hipotesis (verosimilitud), y P(H | E1, E2, ...EN) es la probabilidad posterior

  41. Ejemplo - CBS • Determinar la probabilidad de que la línea este a la izquierda o derecha (clase) dado el valor de los sensores (atributos) P(posición | sensor1, sensor2) = k P(posición) P(s1 | posición) P(s2 | posición)

  42. Ejemplo - CBS

  43. Redes Bayesianas • Introducción • Representación estructural • Representación paramétrica • Inferencia

  44. Representación Las redes bayesianas son una representación gráfica de dependencias para razonamiento probabilístico, en la cual los nodos y arcos representan: • Nodo: Variable proposicional. • Arcos: Dependencia probabilística. La variable a la que apunta el arco es dependiente (causa-efecto) de la que está en el origen de éste.

  45. Otro ejemplo Motor D Motor I posición odometro sensor

  46. Estructura La topología o estructura de la red nos da información sobre las dependencias probabilísticas entre las variables. La red también representa las independencias condicionales de una variable (o conjunto de variables) dada otra variable(s).

  47. Ej.: {Fva} es cond. indep. de {Fv, Fe, Nd} dado {Fb} Esto es: P(Fva | Fv, Fe, Nd, Fb)= P(Fva | Fb) Esto se representa gráficamente por el nodoFb separando al nodo Fva del resto de las variables. Formalmente, la independencia condicional se verifica mediante el criterio de separación-D

  48. En una RP todas la relaciones de independencia condicional representadas en el grafo corresponden a relaciones de independencia en la distribución de probabilidad. Dichas independencias simplifican la representación del conocimiento (menos parámetros) y el razonamiento (propagación de las probabilidades).

More Related