1 / 41

Sistemas Especialistas Probabilísticos

Sistemas Especialistas Probabilísticos. Sistemas Especialistas Probabilísticos. Glauber Tomaz (gifts@di.ufpe.br) Hendrik Teixeira Macedo (htm@di.ufpe.br) Mariana Lara Neves (mln@di.ufpe.br). Conteúdo da apresentação. Combinando conhecimento e objetivos num ambiente de incerteza

Download Presentation

Sistemas Especialistas Probabilísticos

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. SistemasEspecialistasProbabilísticos

  2. Sistemas Especialistas Probabilísticos • Glauber Tomaz (gifts@di.ufpe.br) • Hendrik Teixeira Macedo (htm@di.ufpe.br) • Mariana Lara Neves (mln@di.ufpe.br)

  3. Conteúdo da apresentação • Combinando conhecimento e objetivos num ambiente de incerteza • A Teoria da Utilidade • Funções de utilidade • Funções de utilidade multivariada • Redes de decisão • Teoria do Valor da Informação

  4. Combinando a teoria da utilidade com a teoria da probabilidade Criação de um “decision-theoric agent” • este agente toma decisões em contextos onde a incerteza e os objetivos conflitantes deixariam um agente lógico sem poder de decisão • usa uma função utilidade no processo de tomada de decisão

  5. Função utilidade • fornece um número que expressa quão desejável o estado é para o agente • indica as preferências do agente entre as várias situações do mundo • é combinada com a probabilidade de ocorrência dos estados resultantes, fornecendo a utilidade esperada de cada ação

  6. Função utilidade • U(S) utilidade do estado S • cada ação A poderá gerar diferentes estados Resulti(A) • antes da execução da ação A, o agente calcula a probabilidade para cada estado resultante: P(Resulti(A) | Do(A),E) E evidência do agente sobre o mundo Do(A)  proposição de que A será executada no estado em que o agente se encontra

  7. Função utilidade • a utilidade esperada de uma ação, dadas as evidências do estado: EU(A|E) = P(Resulti(A)|E,Do(A)).U(Resulti(A)) • Princípio da máxima utilidade esperada(MEU): um agente racional deverá escolher a ação que maximize sua utilidade esperada

  8. Teoria da Utilidade • Loteria: cenários complexos onde os diferentes resultados obtidos são “prêmios”, e que estes são determinados por acaso. • L= [p,A ; 1-p,B] Notação para expressar preferências entre loterias: • A>B, AB e AB

  9. Axiomas da teoria da utilidade: • Ordenamento: (A>B) V (B>A) V (AB) • Transitividade: (A>B)  (B>C)  (A>C) • Continuidade: A>B>C  p [p,A ; 1-p,C]  B

  10. Axiomas da teoria da utilidade: • Substituição: AB  [p,A ; 1-p,C]  [p,B ; 1-p,C] • Monotonicidade: A>B (pq  [p,A; 1-p,B]  [q,A; 1-q,B] • Decomposição: [p,A; 1-p,[q,B; 1-q,C]] [p,A;(1-p)q,B; (1-p)(1-q),C]

  11. Axiomas da Utilidade: • Princípio da Utilidade: U(A)>U(B)  A>B U(A)=U(B)  A  B • Princípio da Máxima Utilidade Esperada (MEU): U([p1,S1 ; ... ; pn,Sn]) = piU(Si)

  12. Funções Utilidade • mapeia estados em valores reais • os agentes podem ter quaisquer preferências, contanto que elas atendam aos axiomas da teoria • Utilidade do dinheiro: • preferência monotônica: o agente prefere possuir mais dinheiro quando se lida com valores definidos

  13. Exemplo de um programa de TV(solução 1) • opção 1: US$ 1,000,000 • opção 2: tentar US$ 3,000,000 na moeda (cara ou coroa) • Cálculo do EMV (Valor monetário esperado) EMV(rejeitar) = US$ 1,000,000 EMV(aceitar) = ½($0) + ½($3,000,000) = US$ 1,500,000 Solução: aceitar!

  14. Exemplo de um programa de TV(solução 2) • situação atual  U(Sk) = 5 • opção 1  U(Sk+1,000,000) = 8 • opção 2  U(Sk+3,000,000) = 10 EU(rejeitar) = U(Sk+1,000,000) = 8 EU(aceitar) = ½ U(Sk) + ½ U(Sk+3,000,000) = 7.5 Solução: rejeitar!

  15. Paradoxo de St. Petersburg (Bernoulli - 1738) • Moeda : cara na n-ésima vez  $ 2n Probabilidade = (½)n EMV = P(carai).MV(carai) = (½)i.2i = 1 + 1 + ... =  • Bernoulli: a utilidade do dinheiro é medida em escala logarítmica U(Sk+n) = log2n EU = P(carai).U(carai) = (½)i.log22i = 1/2 + 2/4 + ... = 2 U(Sk+4) = log24 = 2 (US$4,00)

  16. Grayson (1960) As preferências de Mr. Beard são consistentes com a função utilidade: U(Sk+n) = -263.31 + 22.09.log(n + 150,000) para (-$150,000 < n < $800,000)

  17. Grayson (1960) • Boa parte das pessoas tem uma função com forma côncava no lado positivo de riqueza • risk-averse: U(SL) < U(SEMV(L)) (parte positiva do gráfico) • risk-seeking: (parte negativa do gráfico) • certainty equivalent: valor que o agente aceita no lugar de uma aposta • insurance premium: diferença entre EMV(L) e o certainty equivalent • risk-neutral: agente que possui uma curva linear para a função utilidade

  18. Julgamento humano • Teoria de decisão é normativa: • descreve como o agente deveria atuar. • As pessoas geralmente violam os axiomas da teoria da utilidade. Tversky e Kahneman (1982) , Allais (1953) • A: 80% de chance de $4,000 • B: 100% de chance de $3,000 • C: 20% de chance de $4,000 • D: 25% de chance de $3,000

  19. Julgamento humano • Resultados: B e C U($0) = 0 • 0.8.U($4,000) < U($3,000) • 0.2.U($4,000) > 0.25.U($3,000) • risk-averse em eventos com alta probabilidade de ganhos • risk-seeking em eventos de baixa probabilidade de ganho

  20. Escalas e valores da utilidade • “melhor prêmio possível” U(S) = uT • “pior catástrofe possível”  U(S) = u Utilidades normalizadas: • u = 0 e uT=1 resultados intermediário: [p, uT; (1-p), u] Exemplos: • problemas médicos, de transporte e de meio-ambiente

  21. Escalas e valores da utilidade Nos casos médicos e de segurança, temos: • u = morte imediata • exemplos: revisões em aviões, material dos carros, etc.. Valor de cada vida humana (análises médicas e de segurança): • micromort = chance de uma em um milhão de morte (US $20) • QUALY = equivalente a um ano em boa saúde, sem enfermidades

  22. Sistemas Especialistas sob Incertezas Sistemas Especialistas “...um programa de computador inteligente, que usa uma base de conhecimento e inferências para resolver problemas complexos, que requerem grande esforço intelectual humano.” (Feigenbaum 82). Todos os organismos vivos são especialistas em lidar com incertezas, do contrário não sobreviveriam. Problema: Instalar um reator nuclear. Considerações: custo do terreno, distância às áreas habitadas, risco de acidentes, etc. Características do problema: vários atributos.

  23. Funções Utilidade Multivariadas • Um agente com um conjunto de preferências tem uma função utilidade do tipo • U(x1,..., xn) = f[f1(x1),..., fn(xn)] • onde f1(x1) é uma função “simples”. • Quanto maior o valor do atributo, maior o valor da função utilidade. Exemplo: quanto maior a AusênciaDeAcidentes, melhor a solução.

  24. Dominância entre Atributos • Um terreno B, para a construção do reator, custa menos e é mais distante das áreas habitadas do que um terreno A. X1 Região de domínio sobre A C B A D X2 Mas se os atributos forem incerteza ? ?

  25. Neste caso, precisamos introduzir o conceito de dominância estocástica. • Suponha que o custo do terreno A seja normalmente distribuído em torno de R$ 3,7 milhões, com desvio padrão de R$ 0,4 milhões; e o custo do terreno B seja normalmente distribuído em torno de R$ 4,0 milhões, com desvio padrão de R$ 0,35 milhões. Professor, o que é dominância estocástica ?

  26. Distribuição Acumulada e Dominância • Matematicamente se duas ações A e B têm distribuição de probabilidade p1(x) e p2(x) com relação ao atributo X, então A domina estocasticamente B em X se

  27. Estruturas de Preferências e Utilidade Multivariada • Preferências sem Incerteza • Um conjunto de atributos {risco, custo do terreno, funcionários} exibe independência preferencial mútua (IPM) se estes não são correlacionados. Teorema: Se os atributos X1,...,Xn são mutuamente independentes, então a preferência do agente pode ser descrita como a que vai maximizar a função onde cada Vi é a função valor do atributo Xi.

  28. Preferências com Incerteza • Atributos {X1,..., Xn} têm independência de utilidade sobre atributos {Y1,..., Yn}, se as preferências pelas loterias em {X1,..., Xn} são independentes dos valores de {Y1,..., Yn}. • Atributos {X1,..., Xn} são mutuamente independentes de utilidade (MIU), se cada subconjunto de {X1,..., Xn} é independente de utilidade dos demais atributos do conjunto. • Para atributos MIU, a utilidade é multiplicativa. U = k1U1 + k2U2 + k1 k2U1 U2.

  29. Rede de Decisão Rede de Decisão = Rede Bayesiana + ações/utilidades Local do reator Risco de Acidentes Proximidade à População U Funcionários Custos

  30. Descrição da Rede de Decisão • Nós de Chance(ovais): representam as variáveis aleatórias • como nas redes Bayesianas; • Nós de Decisão (retângulos): representam os pontos onde o • agente que vai tomar a decisão pode escolher uma ação; • Nós de Utilidade (losângulos): representam a função utilidade • do agente.

  31. Tabela de Ação-Utilidade Local do reator Risco de Acidentes U Funcionários • A tabela de ação-utilidade é uma versão compilada da formulação original.

  32. Algoritmo de Avaliação de Redes de Decisão 1. Ajuste as variáveis de evidência para o estado atual. 2. Para cada possível valor do nó de decisão: (a) Ajuste o nó para o valor de decisão dado; (b) Calcule as probabilidades posteriores para os nós pais do nó utilidade, usando um algoritmo inferência probabilística padrão; (c) Calcule a utilidade resultante da ação; 3. Retorne a ação com a maior função utilidade.

  33. Teoria do Valor da Informação Quais as perguntas que devemos fazer sobre o problema? • Precisamos saber como novas informações vão afetar a função utilidade do agente. Petrobrás Privatização ?

  34. Problema do Petróleo • Uma multinacional está vai comprar os direitos de explorar petróleo no Brasil. Existem 10 bacias onde a exploração é permitida. Estudos revelaram que apenas uma das bacia tem uma boa reserva de petróleo que vale aproximadamente R$ 1 bilhão. O preço de cada bacia é R$ 100 milhões. Quanto a empresa deve pagar para obter a informação da consultoria ?

  35. Considere n = 10, C = R$ 1 bilhão e C/n = R$ 100 milhões. • Com uma probabilidade 1/n, a consultoria mostra que a bacia 3 tem petróleo. Neste caso, a companhia vai comprar o bacia por C/n e terá um lucro de C - C/n = (n - 1)C/n. • Com uma probabilidade (n - 1)/n, a consultoria mostra que um bloco não tem petróleo. A probabilidade de encontrar petróleo nas outras bacias é de 1/(n - 1). Assim, o lucro da empresa é C/(n - 1) - C/n = C/[(n - 1)/n]. • O lucro que a empresa terá devido a informação é

  36. Valor da Informação Perfeita (VIP) • O conhecimento atual do agente é E. A função utilidade esperada para a melhor ação a é dada por onde Aé uma ação do agente, Ri(A) é um estado de saída possível, F(A) representa a execução da ação A e P(Ri | E, F ) é a probabilidade condicional de Ri acontecer quando Ee Facontecem.

  37. O novo valor de após a nova evidência Ej é • A evidência Ejé uma variável aleatória, portanto, devemos tomar a média sobre todos os possíveis valoresejkde Ej. • O valor da informação Ejé definido por

  38. Propriedades do Valor da Informação • O valor da informação é não negativo • O valor da informação, em geral, é não aditivo • O valor da informação independe da ordem

  39. Algoritmo de um Agente-Detetive Miope função Agente-Detetive (percepção) retorna uma ação estático: D - uma rede de decisão integre a percepçãoem D jo valor que maximiza GE(Ej) - C(Ej) SeGE(Ej) > C(Ej) então retorne uma RequisiçãodeEj do contrário retorne a melhor açãode D • O agente miope calcula o valor da informação assumindo que apenas uma evidência é adquirida.

  40. Construindo um Sistema Especialista sob Incerteza • Determine o escopo do problema • Desenhe a rede de conexões (topologia) • Associe as probabilidades • Associe as utilidades • Forneça as evidências disponíveis • Avalie o diagrama • Obtenha outras evidências • Realize uma análise sobre as repostas a pequenas variações do sistema

  41. Biobliografia • Russel, S. and Norvig, P., “Artificial Intelligence: A Modern Approach”, Prentice-Hall (1995). Capítulo 16. • Giarratano, J. and Riley, G., “Expert Systems: Principles and Programming ”, International Thomson Publishing, 2nd edition (1994). Capítulo 4. • Waterman, D. A., “A Guide to Expert Systems ”, Addison-Wesley (1986). Capítulos 12 e 25. • Rich, E. e Knight, K., “ Inteligência Artificial ”, Makron Books (1993). Capítulo 8.

More Related