1 / 63

Avaliação De Sistemas De Recuperação De Informação (RI):

Avaliação De Sistemas De Recuperação De Informação (RI):. Panorâmica E Reflexões. Rachel Virgínia Xavier Aires 27 de junho de 2002. Avaliação De Sistemas De RI: Panorâmica. O que avaliar Como avaliar Avaliação de máquinas de busca

jett
Download Presentation

Avaliação De Sistemas De Recuperação De Informação (RI):

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Avaliação De Sistemas De Recuperação De Informação (RI): Panorâmica E Reflexões Rachel Virgínia Xavier Aires 27 de junho de 2002

  2. Avaliação De Sistemas De RI: Panorâmica • O que avaliar • Como avaliar • Avaliação de máquinas de busca • Planejamento de uma avaliação de máquinas de busca

  3. O Que Avaliar • Qual o objetivo da avaliação? • Fazer uma avaliação do sistema • Fazer uma avaliação dos usuários • Fazer uma avaliação do sistema pensando nos usuários

  4. Avaliando O Sistema (1-5) • Que forma de indexação funciona melhor? • Qual algoritmo de RI é melhor? O Que Avaliar

  5. Avaliando O Sistema (2-5) • As avaliações são feitas com: um conjunto de documentos, um conjunto de consultas e um conjunto de respostas • A comparação em geral é feita através de duas medidas: recall e precision (ambas serão explicadas em “como avaliar”) O Que Avaliar

  6. Avaliando O Sistema (3-5) • Exemplos de avaliação deste tipo são as avaliações do TREC • Estas iniciativas são importantes para melhorar a qualidade sob o ponto de vista técnico de RI • Exemplos de iniciativas semelhantes são as do japão e china O Que Avaliar

  7. Avaliando O Sistema (4-5) • Críticas: • Credibilidade • Ambiente de laboratórios X ambiente real • Relevância dos julgamentos (em “como avaliar”) • Generalidade • As consultas são representativas? • Coleções de texto pequenas e mais voltadas para ciência e tecnologia O Que Avaliar

  8. Avaliando O Sistema (5-5) • Críticas: • Utilidade • Alguns sistemas tem de ser avaliados segundo outros critérios • A precisão está relacionada a visão do usuário de um bom sistema? • Comprovação teórica • Recall e precision têm algum significado para o usuário? • Diferenças estatísticas entre estas medidas são significante em contextos e situações reais? O Que Avaliar

  9. Avaliando Os Usuários (1-3) • Comportamento (processo de explorar a informação) e satisfação dos usuários na busca • Eficiência do sistema • Se as necessidades do usuário foram atendidas • Se a informação recuperada é útil ou não • Se a interface é amigável O Que Avaliar

  10. Avaliando Os Usuários (2-3) • Estas avaliações promoveram avanços: • Para conhecer as necessidades dos usuários • Novos sistemas de RI, como os que passaram a incluir interfaces de interação gráfica • Novas informações sobre que recursos podem ajudar o usuário a encontrar recursos relevantes • E principalmente serviram para mostrar que relevância é um conceito dinâmico e situacional O Que Avaliar

  11. Avaliando Os Usuários (3-3) • Problemas: • Os pesquisadores deste tipo de avaliação são experientes em teorias e métodos e raramente em tecnologia – não sabem como fazer sistemas de acordo com seus resultados ou traduzi-los de forma que outros possam fazer • É difícil comparar ou resumir os resultados porque são utilizados dados, métodos e níveis de análise diferentes • São estudos em geral focados em públicos específicos • Não estão relacionados a públicos grandes e diferenciados • As análises levam de meses a anos O Que Avaliar

  12. Avaliando O Sistema Considerando Os Usuários (1-2) • Questões entre estes dois paradigmas (Saracevic, 1995): • Quanto sucesso teve e tem a RI em resolver o problema da explosão de informação? • Quão bem a RI dá suporte às pessoas em situações difíceis quando têm de escolher entre diversas opções? • Como toda esta informação, associada a tecnologia de RI existente, afeta nosso trabalho, lazer, sociedade, cultura? O Que Avaliar

  13. Avaliando O Sistema Considerando Os Usuários (2-2) • Estas questões devem ser respondidas já que o propósito geral de uma avaliação é aumentar as chances de um determinado sistema de RI ser adotado e utilizado. • Só é possível respondê-las com análises de sistemas associadas a análises de usuários e unindo as pesquisas de laboratório as situações reais, contextos, indivíduos e organizações. O Que Avaliar

  14. Avaliação De Sistemas De RI: Reflexões • O que avaliar • Como avaliar • Avaliação de máquinas de busca • Planejamento de uma avaliação de máquinas de busca

  15. Como Avaliar • Nem uma técnica proporciona por si só uma avaliação completa. • Nem todos os critérios e medidas são necessários para todos os contextos. • Como a performance é medida através de benchmarks, a performance é válida apenas para o ambiente em que foi medida.

  16. Como Avaliar • É difícil construir corpora. • Benchmarks pra web ainda estão sendo construídos. • Não existem banchmarks para várias línguas. Como é o caso do português.

  17. Todos os documentos Documentos recuperados Documentos relevantes Precision e Recall(precisão e revocação) Como Avaliar

  18. Precision E Recall No TREC • Sumário estatístico: número de tópicos, número de documentos recuperados, número de documentos relevantes. • Recall-precision: precisão média em 11 níveis de recall (de 0 a 1, de 0.1 em 0.1). • Precisão média quando 5, 10, .., 100, … 1000 documents são recuperados. • Recall-precision para cada tópico e a média de recall-precision para cada um dos sistemas para aquele tópico. Como Avaliar

  19. Dificuldades em medir • Eficiência está relacionada à relevância dos documentos recuperados • Não é fácil de calcular este número • O que é relevante? • Vai usar uma medida binária (sim/não) ou não? • A forma não binária é mais natural Como Avaliar

  20. Dificuldades em medir • A relevância é: • Subjetiva: depende do julgamento • Situacional: relacionada as necessidades atuais do usuário • Cognitiva • Dinâmica Como Avaliar

  21. Fallout • Problemas com precision e recall: • Número de documentos irrelevantes não é considerado. • Como medir o recall se não existir documento relevante no conjunto de documentos? • Como medir precision se nenhum documento for recuperado? Como Avaliar

  22. Outras Medidas • Diferença simétrica normalizada. • Fornece a diferença proporcional entre o conjunto de documentos relevantes e irrelevantes recuperados por um sistema. Quanto menor a diferença, melhor o sistema em recuperar todos os documentos relevantes para uma dada consulta. Como Avaliar

  23. Medidas subjetivas De relevância • Novelty: Proporção de items relevantes recuperados que o usuário não conhecia. • Habilidade de encontrar nova informação sobre um tópico. • Coverage: Proporção de items relevantes recuperados que usuário já conhecia. • Quando o usuário quer encontrar documentos que ele já conhecia. Como Avaliar

  24. não selecionado selecionado B A D C relevante não relevante Particularidades da avaliação de sistemas RI na web Precision = A / A+C Recall = A / A+B Como Avaliar Na Web não temos B Difícil obter A e C

  25. Avaliação De Sistemas De RI: Reflexões • O que avaliar • Como avaliar • Avaliação de máquinas de busca • Planejamento de uma avaliação de máquinas de busca

  26. Particularidades Da Avaliação De Máquinas De Busca • O que é mais importante: recall ou precision? • Devido a generalidade desta aplicação o recall e precision realmente não servem como medidas únicas

  27. Particularidades Da Avaliação De Máquinas De Busca • Apesar das dificuldades em definir os número de documentos relevantes recuperados e não recuperados a maioria dos estudos compara máquinas de busca utilizando recall e/ou precision • Por exemplo, olhando as 2 primeiras páginas de resultados (Gwizdka & Chignell,1999)

  28. Medidas Utilizadas • Composição dos índices: freqüência de atualização e tamanho • Capacidade de busca: o que a máquina de busca permite usar • Performance: além de precision e recall usam tempo de resposta • Apresentação da saída • Esforço do usuário: quão difícil é para um usuário comum utilizar a máquina de busca Particularidades da avaliação de máquinas de busca

  29. Medidas Sugeridas Por Gwizdka & Chignell (1-5) • Sugerem que não se considere tempo de resposta. Pois apesar de ser uma medida importante é uma medida muito instável. • Falam de documentos relevantes, documentos indiretamente relevantes e não relevantes. • Propõe uma medida de precisão que considere a posição do item relevante (se entre os 10 primeiros tem um peso maior). Particularidades da avaliação de máquinas de busca

  30. Medidas Sugeridas Por Gwizdka & Chignell (2-5) • Definem 4 tipos de precisão que variam de acordo com a forma que a relevância é utilizada: full precision, best precision, useful precision e objective precision. Particularidades da avaliação de máquinas de busca

  31. Medidas Sugeridas Por Gwizdka & Chignell (3-5) • Full precision - considera a pontuação associada a cada hit • Best precision - considera apenas os hits mais relevantes • Useful precision - considera apenas os hits mais relevantes e os que contém links para os mais relevantes • Objective precision - não requer julgamentos de relevância. É baseada na presença ou ausência de termos requisitados e na distinção entre links bons e ruins Particularidades da avaliação de máquinas de busca

  32. Medidas Sugeridas Por Gwizdka & Chignell (4-5) • A precisão é medida para os 20 primeiros itens recuperados Particularidades da avaliação de máquinas de busca

  33. Medidas Sugeridas Por Gwizdka & Chignell (5-5) • Propõe uma medida de esforço baseada na medida de tamanho da busca (número de documentos irrelevantes antes de um documento relevante) – diferencia as paginas indiretamente relevantes. • Número de links ruins e de links duplicados. Particularidades da avaliação de máquinas de busca

  34. Clickthrough Data • Avaliação baseada totalmente nos cliques de usuários. Não requer julgamentos ou feedback por parte do usuário. • Se o usuário clica em mais documentos de uma máquina de busca do que nos de outra tal máquina retornou resultados mais relevantes (Joachims, 2002). Particularidades da avaliação de máquinas de busca

  35. Avaliação De Sistemas De RI: Reflexões • O que avaliar • Como avaliar • Avaliação de máquinas de busca • Planejamento de uma avaliação de máquinas de busca

  36. Planejamento De Uma Avaliação De Máquinas De Busca • O que interessa verificar sobre uma máquina de busca? Exemplos: • Qual é a melhor máquina de busca sobre medicina? • Qual a melhor máquina de busca para encontrar artigos científicos? • Para diferentes necessidades, diferentes medidas e formas de proceder a avaliação

  37. Questões Tradicionais Ainda Não Respondidas Para Máquinas De Busca Para Português • Qual a melhor para as perguntas mais freqüentes? • Qual o tamanho estimado do índice de cada uma das máquinas de busca? • Como o índice vem sendo alterado ao longo do tempo (volume, que tipo de conteúdo, etc)?

  38. Questões Tradicionais Ainda Não Respondidas Para Máquinas De Busca Para Português • Qual a freqüência com que seus índices são atualizados (freshness)? • Como é a intersecção (overlap) entre as máquinas de busca? • Qual a freqüência de links que não existem mais?

  39. Questões Interessantes Sobre As Máquinas De Busca Para Português • É fácil encontrar artigos? • Como é seu desempenho na busca por serviços on-line? • Dão suporte a estudantes em suas pesquisas para o colégio? • Qual a melhor para perguntas que estão freqüentes em um determinado período? • Islã, tiazinha, etc

  40. O Que Definir • Que mecanismos de busca avaliar • Que consultas utilizar • Como selecionar as consultas • Filtrar ou não as consultas • Quantas consultas • Como julgar a relevância dos resultados

  41. Que Mecanismos De Busca Avaliar (1-2) • Somente máquinas de busca ou máquinas de busca e diretórios? • Só serviços de busca gratuitos? • Somente máquinas de busca genéricas ou também máquinas especializadas em um determinado assunto? • Os meta searchers devem ser avaliados ou não, somente quando possuem também algum mecanismo de busca próprio?

  42. Que Mecanismos De Busca Avaliar (2-2) • Avaliar apenas as máquinas de busca que só indexam páginas em português ou também as que indexam várias línguas incluindo o português? • Quantas máquinas de busca avaliar? • Quais máquinas avaliar? • www.cade.com.br, www.todobr.com.br, www.sapo.pt, www.tumba.pt, www.google.com

  43. Que Consultas Utilizar (1-2) • Selecionando dentre as consultas mais freqüentes do log de uma máquina de busca ou dentre todas: • Retirando uma amostra aleatória • Removendo os assuntos que não se quer avaliar e então retirar uma amostra • Escolher entre as consultas sobre um dado assunto • Escolher uma amostra seguindo proporções • Uma determinada porcentagem de questões com apenas 2 palavras, com apenas 3, com frases • Questões em linguagem natural

  44. Que Consultas Utilizar (2-2) • Elaborar uma lista de consultas manualmente. • Para por exemplo, avaliar o desempenho das máquinas de busca para pesquisa científica. • Solicitar que bibliotecários elaborem uma lista de consultas para representar diferentes necessidades de usuários. • Traduzir listas de consultas utilizadas em outros estudos, por exemplo CLEF.

  45. Filtrar Ou Não As Consultas SPC CEE CET SdPM • Nem sempre é possível interpretar os objetivos por trás de uma consulta. • Utilizar juízes humanos para escolher dentre as consultas quais possuem pelo menos um objetivo possível. ou • Coletar consultas com um grupo pequeno de usuários e solicitar que explicitem o objetivo.

  46. Filtrar Ou Não As Consultas • Nem sempre é possível interpretar os objetivos por trás de uma consulta. • Utilizar juízes humanos para escolher dentre as consultas quais possuem pelo menos um objetivo possível. ou • Coletar consultas com um grupo pequeno de usuários e solicitar que explicitem o objetivo.

  47. Quantas Consultas • Quantas consultas para avaliar a precisão? • 03 (Pratt & Fragan, 2000; Notess, 2000), 04 (Notess, 2002) • 07 (Consumidor S.A; Moreira) • 15 (Gwizdka & Chignell 1999; Notess, 1999) • 18 (Bruza et al, 2000), 20 (CNET.com), 50 (Hawking et al, 1999) • Acima de 50 (Hawking et al, 2001; Li et al, 2001) • Quantas consultas para avaliar critérios que devem ser avaliados com uma freqüência maior? Por exemplo, freshness.

  48. A Relevância Ou Não Dos Documentos (1-3) • Dentre os documentos retornados como resposta, quantos julgar? • Os primeiros 10 (CNET.com; Chu & Rosenthal, 1996; Hawking et al, 2001), 20 (Gwizdka & Chignell, 1999; Hawking et al, 1999; Li et al, 2001; Su et al, 1998) de cada máquina (1ª e 2ª páginas de resultados)? • Quem irá julgar a relevância? • O grupo que está realizando a avaliação (Chu & Rosenthal, 1996) – pesquisadores da área. • Pessoas que não são de RI nem de computação. Por exemplo, usuários interessados em um determinado assunto. (Pratt & Fagan, 2000). • Bibliotecários. (Chu & Rosenthal, 1996)

  49. A Relevância Ou Não Dos Documentos (2-3) • O julgamento será binário? • Relevante e não relevante • Relevante, pouco relevante e irrelevante • Níveis de relevância (Su et al, 1998; Gwidka & Chignell, 1999) • Haverá apenas um objetivo para cada consulta?

  50. A Relevância Ou Não Dos Documentos (2-3) • O julgamento será binário? • Relevante e não relevante • Relevante, pouco relevante e irrelevante • Níveis de relevância (Su et al, 1998; Gwidka & Chignell, 1999) • Considerar apenas um objetivo para cada consulta? SPC - Sociedade de Proteção ao Crédito SPC - Só para contrariar

More Related