1 / 8

I n s t i t u t o T e c n o l ó g i c o d e V i l l a h e r m o s a

I n s t i t u t o T e c n o l ó g i c o d e V i l l a h e r m o s a. ING. INDUSTRIAL. CATEDRATICO: ZINATH JAVIER GERONIMO MATERIA: INVESTIGACIÓN DE OPERACIONES II TRABAJO: EQUIPO 2 UNIDAD 5( TOMA DE DECISIONES BAJO INCERTIDUMBRE ) PRESENTAN: MARIANO ALAMILLA PACHECO

dylan
Download Presentation

I n s t i t u t o T e c n o l ó g i c o d e V i l l a h e r m o s a

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. I n s t i t u t o T e c n o l ó g i c o d e V i l l a h e r m o s a ING. INDUSTRIAL CATEDRATICO: ZINATH JAVIER GERONIMO MATERIA: INVESTIGACIÓN DE OPERACIONES II TRABAJO: EQUIPO 2 UNIDAD 5( TOMA DE DECISIONES BAJO INCERTIDUMBRE) PRESENTAN: MARIANO ALAMILLA PACHECO YADIRA CONTRERAS CORNELIO MARIA DE LOURDE TORRES MADRID HERNAN HERNNDEZ RAMOS ABRAHAM DE LA CRUZ VALENCIA IVET HERNADEZ RAMIREZ GEOVANI MARTINEZ HERNADEZ GONZALEZ HERNANDES GREVIL VILLAHERMOSA, TAB. 06 DE DICIEMBRE DEL 2010

  2. REGLAS DE BAYES Y ÁRBOLES DE DECISION El ejemplo de la colaco y muchos otros problemas con árboles de decisiones comparten algunas características comunes. Hay varios estados del mundo. Los estados diferentes ocasionan diferentes pagas a quien toma decisiones. En el ejemplo de colaco, los dos estados del mundo fueron que chocola es éxito nacional (NS) y que es fracaso nacional (NF). También nos proporcionaron, antes hacer cualquier prueba de ventas, si es que se hace, estimaciones de las probabilidades de cada estado del mundo. A estas se les llama probabilidades a priori. En el ejemplo de colaco las probabilidades a priori son p(NS)=.55 y p(NF)=.45. En diversos estados del mundo (o de la naturaleza) pueden ser óptimas decisiones diferentes. En el ejemplo de colaco, la compañía debe de vender a nivel nacional si el estado del mundo es NF. Seria conveniente comprar información que de más conocimiento anterior del estado del mundo a quien tome decisiones. Esto le permitirá tomar mejores decisiones. Por ejemplo, en el caso de colaco, la información obtenida de la prueba del mercado podría ayudar a que colaco decida si chocola se debe vender a nivel nacional o no.

  3. Quien toma decisiones recibe información al observar los resultados de un experimento. Sean s1,s2,….,sn. Los estados posibles del mundo, y sean 01, 02,…,0m los resultados posibles del experimento. Con frecuencia a quien toma decisiones se les dan las probabilidades condicionales p (si/oj) (i=1,2,…,n; j=1,2,…, m). Dado el conocimiento del resultado del experimento, estas probabilidades dan nuevo valores a la probabilidad de cada estado del mundo. Las probabilidades p (si/oj) se llaman probabilidades a posteriori. En el ejemplo de colaco, el experimento fue el procedimiento de prueba de mercado, o prueba de ventas, y los dos resultados posibles fueron LF= fracaso local y LS= éxito local. Las probabilidades a posteriori especificadas fueron p (NS/LS)=.85, p (NS/LF)=.10, p (NF/LS)=.15, p (NF/LF)=.90, Así, el conocimiento de un éxito en las ventas locales aumentaría mucho la estimación de la probabilidad de éxito nacional, y el conocimiento de un fracaso en la prueba de ventas local disminuiría mucho la estimación de colaco de la probabilidad de éxito nacional. Las probabilidades a posteriori que se acaban de citar se usaron para definir los nodos de evento en ele árbol de decisión que siguieron a la acción probar el mercado. Sin embargo, en muchos casos se nos proporcionan las probabilidades a priori p(si) para cada estado del mundo y, en lugar de que nos dan las probabilidades a posteriori p(si/oj), nos podrían dar la verosimilitud p (oj/si). Para cada estado del mundo las verosimilitudes dan la probabilidad de observar cada uno de los resultados experimentales. Así, en el ejemplo de colaco, nos podrían dar las probabilidades a priori p(ns)=.55 y p(NF)=.45, y las verosimilitudes p(LS/NS)=51/55 p(LF/NS)=4/55, p(ls/NF)=9/45 y p (LF/NF)=36/45.

  4. Para dejar en claro el significado de la verosimilitud, supongamos que 55 productos que han sido éxitos a nivel nacional que se han probado antes; de estos 55, 51 fueron éxitos locales y 4 fueron fracasos locales. Estos nos hubieran llevado a calcular p(LS/NS) como 51/55 y a p(LF/NS) comp. 4/55. Para completar el árbol de decisiones de la fig.4 todavía necesitamos conocer las probabilidades a posteriori p (NS/LS); p(NF/LS), p(NS/LF) y p(NF/LF). Con ayuda de las reglas de Bayes ( véase Sec.11.5) podemos utilizar las probabilidades y verosimilitudes a priori para calcular las probabilidades a posteriori que necesitamos. Para iniciar el calculo de esas probabilidades a posteriori que necesitamos calcular las probabilidades conjuntas de cada estado del mundo y el resultado experimental. Es decir, debemos calcular p(NS ∩ LS); p(NS∩LF), p(NF∩LS) y p(NF∩LF). Obtenemos estas probabilidades conjuntas mediante la definicion de probabilidad condicional: p (NS ∩ LS)=p(NS)p(LS/NS)=.55(51/55)=.51 p (NS ∩ LF)=p(NS)p(LF/NS)=.55(4/55)=.04 p (NF ∩ LS)=p(NF)p(LS/NF)=.45(9/45)=.09 p (NF ∩ LF)=p(NF)p(LF/NF)=.45(36/45)=.36 A continuación calcularemos la probabilidad de cada resultado experimental posible, a lo que a veces se le llama probabilidad marginal, p(LS) y p(LF): p(LS)= p(NS ∩ LS) +p(NF ∩ LS)=.51 +.09 = .60 p(LF)= p(NS ∩ LF) +p(NF ∩ LF)=.04 +.36 = .40

  5. Esta s probabilidades a posteriori se pueden usar para completar el árbol de decisiones de la Fig. 4 A continuación se puede aplicar la regla de Bayes para obtener las probabilidades a posteriori que se desea: p(NS/LS)= p(NS ∩ LS) = . 51 = .85 p(LS) .60 p(Nf/LS)= p(Nf ∩ LS) = . 09 = .15 p(LS .60 p(NS/LF)= p(NS ∩ LF) = . 04 = .10 p(LF .40 P(NF/LF)= p(NF ∩ LF) = . 36 = . 90 p(LF .40 En resumen, para calcular probabilidades a posteriori, se sigue el proceso de los tres pasos a continuación: Paso 1: calcular las probabilidades conjuntas de la forma p(si/ ∩oj.) multiplicando la probabilidad a priori p(si) por la verosimilitud p(oj/si) paso 2: hallar las probabilidades de cada resultados experimental p(oj) sumando todas las probabilidades conjuntas de la formap(sk ∩oj) paso 3: determinar cada probabilidad a posteriori ( p(si/oj)) dividiendo la probabilidad conjunta (p(si ∩ oj)) entre la probabilidad del resultado experimental oj(p(oj)). A continuación presentamos un ejemplo completo de un análisis de árbol de decisiones en el que se aplica la regla de Bayes.

  6. Ejemplo 5 La fruit computer company fabrica chips de memoria en lotes de diez. Según su experiencia, fruit sabe que el 80% de todos los lotes contienen el 10% (uno de cada diez) de chips defectuosos, y el 20 % de todos los lotes contienen el 50%( 5 de cada 10) de chips defectuosos. Si un lote bueno, esto es, con 10 % de defectos, se manada a la siguiente etapa de producción, los costos de proceso en que se incurra serán de 1000 dólares. Si un lote malo, o sea, con 50% de chips defectuosos, se manda a la siguiente etapa de producción, se incurre en 4000 dólares de costos. Fruit tiene también la opción de representar un lote a un costo de 1000 dólares. Es seguro que un lote reprocesado será después un lote bueno. Otra opción es que, por un costo de 100 dólares. Fruit puede probar un chip de cada lote para tratar de determinar si es defectuoso ese lote. Determine como puede fruit reducir al mínimo el costo total esperado por lote. También calcule el VEIM y el VEIP: Solución: Multiplicamos los costos por -1 y trataremos de hacer máximo a –(costos total). Esto permite utilizar las formulas para VEIM y VEIP de la Sec. 13.3. hay dos estados del mundo. G= el lote es bueno B= el lote es malo Nos dan las siguientes probabilidades a priori: p(G)=.80 y p(B)=.20

  7. fruit tiene la opción de llevar a cabo un experimento: inspeccionar un chip por lote. Los resultados posibles del experimento son D= se encuentra que el chip es defectuoso ND= se encuentra que el chip no es defectuoso. Nos proporcionan las siguientes verosimilitudes: P(D/G)=.10 P(ND/G)=.90 P(D/B)=.50 P(ND/B)=.50 p (D ∩ G) = p(G)p(D/G)= 80(.10)=.08 p (D ∩ B) = p(B)p(D/B)= .20(.50)=.10 p (ND ∩ G) = p(G)p(ND/G)= 80(.90)=.72 p (ND ∩ B) = p(B)p(ND/B)= .20(.50)=.10

  8. Árbol decisiones de colaco (neutral frente a riesgo)(dólares) No vende a escala nacional (50000 -30000=120000) .85 Vende a escala nacional 36000 (150,000-30,000+30000=420,000) .60 Éxito nacional Éxito local .15 360000 Fracaso nacional 264000 .40 Fracaso local Hacer prueba de mercado (150,000-30,000-100,000=20,00) No vende a escala nacional (150,000-30,000 = 120,00) 120,000 .10 Éxito nacional 150,000-30,000+30,000 = 420,000 270000 Vendea escala nacional .90 Fracaso nacional 60,000 No hacer prueba de mercado 150,000-30,000-100,000 =20,000 .55 Éxito nacional (150,000+30,000 =450,00) $ 270,000 . 45 Fracaso nacional 270,000 Vende a escala nacional 150,000-100,000 =50,000) No vende a escala nacional (150,00)

More Related