410 likes | 536 Views
Sistemas Especialistas Probabilísticos. Sistemas Especialistas Probabilísticos. Glauber Tomaz (gifts@di.ufpe.br) Hendrik Teixeira Macedo (htm@di.ufpe.br) Mariana Lara Neves (mln@di.ufpe.br). Conteúdo da apresentação. Combinando conhecimento e objetivos num ambiente de incerteza
E N D
Sistemas Especialistas Probabilísticos • Glauber Tomaz (gifts@di.ufpe.br) • Hendrik Teixeira Macedo (htm@di.ufpe.br) • Mariana Lara Neves (mln@di.ufpe.br)
Conteúdo da apresentação • Combinando conhecimento e objetivos num ambiente de incerteza • A Teoria da Utilidade • Funções de utilidade • Funções de utilidade multivariada • Redes de decisão • Teoria do Valor da Informação
Combinando a teoria da utilidade com a teoria da probabilidade Criação de um “decision-theoric agent” • este agente toma decisões em contextos onde a incerteza e os objetivos conflitantes deixariam um agente lógico sem poder de decisão • usa uma função utilidade no processo de tomada de decisão
Função utilidade • fornece um número que expressa quão desejável o estado é para o agente • indica as preferências do agente entre as várias situações do mundo • é combinada com a probabilidade de ocorrência dos estados resultantes, fornecendo a utilidade esperada de cada ação
Função utilidade • U(S) utilidade do estado S • cada ação A poderá gerar diferentes estados Resulti(A) • antes da execução da ação A, o agente calcula a probabilidade para cada estado resultante: P(Resulti(A) | Do(A),E) E evidência do agente sobre o mundo Do(A) proposição de que A será executada no estado em que o agente se encontra
Função utilidade • a utilidade esperada de uma ação, dadas as evidências do estado: EU(A|E) = P(Resulti(A)|E,Do(A)).U(Resulti(A)) • Princípio da máxima utilidade esperada(MEU): um agente racional deverá escolher a ação que maximize sua utilidade esperada
Teoria da Utilidade • Loteria: cenários complexos onde os diferentes resultados obtidos são “prêmios”, e que estes são determinados por acaso. • L= [p,A ; 1-p,B] Notação para expressar preferências entre loterias: • A>B, AB e AB
Axiomas da teoria da utilidade: • Ordenamento: (A>B) V (B>A) V (AB) • Transitividade: (A>B) (B>C) (A>C) • Continuidade: A>B>C p [p,A ; 1-p,C] B
Axiomas da teoria da utilidade: • Substituição: AB [p,A ; 1-p,C] [p,B ; 1-p,C] • Monotonicidade: A>B (pq [p,A; 1-p,B] [q,A; 1-q,B] • Decomposição: [p,A; 1-p,[q,B; 1-q,C]] [p,A;(1-p)q,B; (1-p)(1-q),C]
Axiomas da Utilidade: • Princípio da Utilidade: U(A)>U(B) A>B U(A)=U(B) A B • Princípio da Máxima Utilidade Esperada (MEU): U([p1,S1 ; ... ; pn,Sn]) = piU(Si)
Funções Utilidade • mapeia estados em valores reais • os agentes podem ter quaisquer preferências, contanto que elas atendam aos axiomas da teoria • Utilidade do dinheiro: • preferência monotônica: o agente prefere possuir mais dinheiro quando se lida com valores definidos
Exemplo de um programa de TV(solução 1) • opção 1: US$ 1,000,000 • opção 2: tentar US$ 3,000,000 na moeda (cara ou coroa) • Cálculo do EMV (Valor monetário esperado) EMV(rejeitar) = US$ 1,000,000 EMV(aceitar) = ½($0) + ½($3,000,000) = US$ 1,500,000 Solução: aceitar!
Exemplo de um programa de TV(solução 2) • situação atual U(Sk) = 5 • opção 1 U(Sk+1,000,000) = 8 • opção 2 U(Sk+3,000,000) = 10 EU(rejeitar) = U(Sk+1,000,000) = 8 EU(aceitar) = ½ U(Sk) + ½ U(Sk+3,000,000) = 7.5 Solução: rejeitar!
Paradoxo de St. Petersburg (Bernoulli - 1738) • Moeda : cara na n-ésima vez $ 2n Probabilidade = (½)n EMV = P(carai).MV(carai) = (½)i.2i = 1 + 1 + ... = • Bernoulli: a utilidade do dinheiro é medida em escala logarítmica U(Sk+n) = log2n EU = P(carai).U(carai) = (½)i.log22i = 1/2 + 2/4 + ... = 2 U(Sk+4) = log24 = 2 (US$4,00)
Grayson (1960) As preferências de Mr. Beard são consistentes com a função utilidade: U(Sk+n) = -263.31 + 22.09.log(n + 150,000) para (-$150,000 < n < $800,000)
Grayson (1960) • Boa parte das pessoas tem uma função com forma côncava no lado positivo de riqueza • risk-averse: U(SL) < U(SEMV(L)) (parte positiva do gráfico) • risk-seeking: (parte negativa do gráfico) • certainty equivalent: valor que o agente aceita no lugar de uma aposta • insurance premium: diferença entre EMV(L) e o certainty equivalent • risk-neutral: agente que possui uma curva linear para a função utilidade
Julgamento humano • Teoria de decisão é normativa: • descreve como o agente deveria atuar. • As pessoas geralmente violam os axiomas da teoria da utilidade. Tversky e Kahneman (1982) , Allais (1953) • A: 80% de chance de $4,000 • B: 100% de chance de $3,000 • C: 20% de chance de $4,000 • D: 25% de chance de $3,000
Julgamento humano • Resultados: B e C U($0) = 0 • 0.8.U($4,000) < U($3,000) • 0.2.U($4,000) > 0.25.U($3,000) • risk-averse em eventos com alta probabilidade de ganhos • risk-seeking em eventos de baixa probabilidade de ganho
Escalas e valores da utilidade • “melhor prêmio possível” U(S) = uT • “pior catástrofe possível” U(S) = u Utilidades normalizadas: • u = 0 e uT=1 resultados intermediário: [p, uT; (1-p), u] Exemplos: • problemas médicos, de transporte e de meio-ambiente
Escalas e valores da utilidade Nos casos médicos e de segurança, temos: • u = morte imediata • exemplos: revisões em aviões, material dos carros, etc.. Valor de cada vida humana (análises médicas e de segurança): • micromort = chance de uma em um milhão de morte (US $20) • QUALY = equivalente a um ano em boa saúde, sem enfermidades
Sistemas Especialistas sob Incertezas Sistemas Especialistas “...um programa de computador inteligente, que usa uma base de conhecimento e inferências para resolver problemas complexos, que requerem grande esforço intelectual humano.” (Feigenbaum 82). Todos os organismos vivos são especialistas em lidar com incertezas, do contrário não sobreviveriam. Problema: Instalar um reator nuclear. Considerações: custo do terreno, distância às áreas habitadas, risco de acidentes, etc. Características do problema: vários atributos.
Funções Utilidade Multivariadas • Um agente com um conjunto de preferências tem uma função utilidade do tipo • U(x1,..., xn) = f[f1(x1),..., fn(xn)] • onde f1(x1) é uma função “simples”. • Quanto maior o valor do atributo, maior o valor da função utilidade. Exemplo: quanto maior a AusênciaDeAcidentes, melhor a solução.
Dominância entre Atributos • Um terreno B, para a construção do reator, custa menos e é mais distante das áreas habitadas do que um terreno A. X1 Região de domínio sobre A C B A D X2 Mas se os atributos forem incerteza ? ?
Neste caso, precisamos introduzir o conceito de dominância estocástica. • Suponha que o custo do terreno A seja normalmente distribuído em torno de R$ 3,7 milhões, com desvio padrão de R$ 0,4 milhões; e o custo do terreno B seja normalmente distribuído em torno de R$ 4,0 milhões, com desvio padrão de R$ 0,35 milhões. Professor, o que é dominância estocástica ?
Distribuição Acumulada e Dominância • Matematicamente se duas ações A e B têm distribuição de probabilidade p1(x) e p2(x) com relação ao atributo X, então A domina estocasticamente B em X se
Estruturas de Preferências e Utilidade Multivariada • Preferências sem Incerteza • Um conjunto de atributos {risco, custo do terreno, funcionários} exibe independência preferencial mútua (IPM) se estes não são correlacionados. Teorema: Se os atributos X1,...,Xn são mutuamente independentes, então a preferência do agente pode ser descrita como a que vai maximizar a função onde cada Vi é a função valor do atributo Xi.
Preferências com Incerteza • Atributos {X1,..., Xn} têm independência de utilidade sobre atributos {Y1,..., Yn}, se as preferências pelas loterias em {X1,..., Xn} são independentes dos valores de {Y1,..., Yn}. • Atributos {X1,..., Xn} são mutuamente independentes de utilidade (MIU), se cada subconjunto de {X1,..., Xn} é independente de utilidade dos demais atributos do conjunto. • Para atributos MIU, a utilidade é multiplicativa. U = k1U1 + k2U2 + k1 k2U1 U2.
Rede de Decisão Rede de Decisão = Rede Bayesiana + ações/utilidades Local do reator Risco de Acidentes Proximidade à População U Funcionários Custos
Descrição da Rede de Decisão • Nós de Chance(ovais): representam as variáveis aleatórias • como nas redes Bayesianas; • Nós de Decisão (retângulos): representam os pontos onde o • agente que vai tomar a decisão pode escolher uma ação; • Nós de Utilidade (losângulos): representam a função utilidade • do agente.
Tabela de Ação-Utilidade Local do reator Risco de Acidentes U Funcionários • A tabela de ação-utilidade é uma versão compilada da formulação original.
Algoritmo de Avaliação de Redes de Decisão 1. Ajuste as variáveis de evidência para o estado atual. 2. Para cada possível valor do nó de decisão: (a) Ajuste o nó para o valor de decisão dado; (b) Calcule as probabilidades posteriores para os nós pais do nó utilidade, usando um algoritmo inferência probabilística padrão; (c) Calcule a utilidade resultante da ação; 3. Retorne a ação com a maior função utilidade.
Teoria do Valor da Informação Quais as perguntas que devemos fazer sobre o problema? • Precisamos saber como novas informações vão afetar a função utilidade do agente. Petrobrás Privatização ?
Problema do Petróleo • Uma multinacional está vai comprar os direitos de explorar petróleo no Brasil. Existem 10 bacias onde a exploração é permitida. Estudos revelaram que apenas uma das bacia tem uma boa reserva de petróleo que vale aproximadamente R$ 1 bilhão. O preço de cada bacia é R$ 100 milhões. Quanto a empresa deve pagar para obter a informação da consultoria ?
Considere n = 10, C = R$ 1 bilhão e C/n = R$ 100 milhões. • Com uma probabilidade 1/n, a consultoria mostra que a bacia 3 tem petróleo. Neste caso, a companhia vai comprar o bacia por C/n e terá um lucro de C - C/n = (n - 1)C/n. • Com uma probabilidade (n - 1)/n, a consultoria mostra que um bloco não tem petróleo. A probabilidade de encontrar petróleo nas outras bacias é de 1/(n - 1). Assim, o lucro da empresa é C/(n - 1) - C/n = C/[(n - 1)/n]. • O lucro que a empresa terá devido a informação é
Valor da Informação Perfeita (VIP) • O conhecimento atual do agente é E. A função utilidade esperada para a melhor ação a é dada por onde Aé uma ação do agente, Ri(A) é um estado de saída possível, F(A) representa a execução da ação A e P(Ri | E, F ) é a probabilidade condicional de Ri acontecer quando Ee Facontecem.
O novo valor de após a nova evidência Ej é • A evidência Ejé uma variável aleatória, portanto, devemos tomar a média sobre todos os possíveis valoresejkde Ej. • O valor da informação Ejé definido por
Propriedades do Valor da Informação • O valor da informação é não negativo • O valor da informação, em geral, é não aditivo • O valor da informação independe da ordem
Algoritmo de um Agente-Detetive Miope função Agente-Detetive (percepção) retorna uma ação estático: D - uma rede de decisão integre a percepçãoem D jo valor que maximiza GE(Ej) - C(Ej) SeGE(Ej) > C(Ej) então retorne uma RequisiçãodeEj do contrário retorne a melhor açãode D • O agente miope calcula o valor da informação assumindo que apenas uma evidência é adquirida.
Construindo um Sistema Especialista sob Incerteza • Determine o escopo do problema • Desenhe a rede de conexões (topologia) • Associe as probabilidades • Associe as utilidades • Forneça as evidências disponíveis • Avalie o diagrama • Obtenha outras evidências • Realize uma análise sobre as repostas a pequenas variações do sistema
Biobliografia • Russel, S. and Norvig, P., “Artificial Intelligence: A Modern Approach”, Prentice-Hall (1995). Capítulo 16. • Giarratano, J. and Riley, G., “Expert Systems: Principles and Programming ”, International Thomson Publishing, 2nd edition (1994). Capítulo 4. • Waterman, D. A., “A Guide to Expert Systems ”, Addison-Wesley (1986). Capítulos 12 e 25. • Rich, E. e Knight, K., “ Inteligência Artificial ”, Makron Books (1993). Capítulo 8.