210 likes | 278 Views
Fusion Of Continuous-Valued Outputs. Equipe: Henrique Lins ( hsmpl ) João Pascoal Neto ( jrpn ) Mário Barbosa ( mbaj ) Tiago Farias ( tfs ). Roteiro. Introdução Adquirindo scores Scores discriminantes Estimadores de Laplace Combinadores Conscientes à Classe Não treináveis
E N D
FusionOfContinuous-Valued Outputs Equipe: Henrique Lins (hsmpl) João Pascoal Neto (jrpn) Mário Barbosa (mbaj) Tiago Farias (tfs)
Roteiro • Introdução • Adquirindo scores • Scores discriminantes • Estimadores de Laplace • Combinadores Conscientes à Classe • Não treináveis • Treináveis • CombinadoresIndiferentes à Classe • Templates de Decisão • CombinadorDempster-Shafer
Introdução • Viável para vetores de características contínuas • Utiliza vários classificadores diferentes • Cada classificador gera um score para cada classe • Scores são armazenados em uma matriz conhecida como Perfil de Decisão (DP)
Introdução • Dimensão da DP é L x C onde L é a quantidade de classificadores e C é a quantidade de classes • Cada score pertence aos reais no intervalo [0,1] • Para cada coluna (classe) é calculado o scoreμ(x) • A classe que possuir o maior μ(x) é a escolhida
Introdução • Espaço de Características Intermediário • Scores iniciais são colocados nesse espaço • Outro classificador gera uma classlabel
Adquirindo scores • Alguns exemplos • Classificadores discriminantes • Classificador Parzen • Softmax • Função softmax normaliza resultados gerados • Score 0 = Não há suporte para a classe • Score 1 = Suporte máximo para a classe
Adquirindo scores de probabilidades • Scores probabilísticos são mais confiáveis • Vários algoritmos • LDC • QDC • Convergência para função softmax • Softmax adaptado para problemas de 2 classes
Redes neurais e classificadores Kernel • Para uma rede neural (RN) com c saídas • Saídas denotadas por (y1, y2, ..., yc) | yiє R, para i = 1, 2, ..., c. • Alvo denotado por (t1, ..., tc) | tiє {0, 1}, para i = 1, 2, ..., c. • AQUI!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
Estimador de Laplace • Árvores de estimativas de probabilidades (PETs) • Calcula com precisão probabilidades a posteriori • Estimativa da probabilidade utiliza-se de proporção de classes do conjunto de treinamento • PET não é confiável para poucos elementos • Usa-se a correção de Laplace para resolver este problema • Ajusta as estimativas para evitar extremos
Estimador de Laplace • Suavização da regularização do estimador • Utilização de uma parametro m (m-estimator) • m muito grande, probabilidade restrita • m muito pequeno, falta de regularização • m x P(wj) ≈ 10 é considerado a melhor alternativa
Estimador de Laplace • Adaptação de Ting e Witten • Onde ω* é a classe majoritária • Utilizando distâncias • Baseado no k-nn
Combinadores Conscientes à Classe • Divididos em duas categorias • Não-treináveis • Treináveis • Combinadores não-treináveis • Sem parâmetros adicionais • O conjunto final já está preparado • Operações diretas no Perfil de Decisão • Combinadores treináveis • Combinações de pesos • Integral Fuzzy
Combinadores Não-Treináveis • Geram o μ(x) para cada coluna (classe) da DP • Aplicação de uma combinação sobre a coluna • Média Simples • Máximo • Média cortada (trimmedmean) • Utiliza um percentual α para “podar” o conjunto • Produto
Combinadores Não-Treináveis • Média Generalizada • α = -∞ (mínimo) • α = -1 (média harmônica) • α = 0 (média geométrica) • α = -1 (média aritmética) • α = -∞ (máximo) • O “otimismo” do combinador cresce com o α
Combinadores Não-Treináveis • OWA (OrderedWeightedAveraging) • Conjunto de L coeficientes • Um coeficiente para cada classificador • Trabalha com colunas do DP(x) separadamente • Coluna organizada em ordem decrescente • Seja b um vetor de coeficientes
Combinadores Não-Treináveis • b varia de acordo com o combinador escolhido • Se L = 5 e o operador usado é o trimmedmean • b = [0, 1/3, 1/3, 1/3, 0] (transposta)
Combinadores Treináveis • Média ponderada • Três grupos baseados no número de pesos • L pesos. Um peso para cada classificador • (c x L) pesos. Um peso para cada conjunto {classe, classificador} • (c x c x L) pesos. DEPOIS!!
Combinadores Treináveis • Integral Fuzzy • Gera bons resultados de classficação • Confronta competência contra o suporte mais alto • Trabalha com subconjunto de classificadores • medida fuzzy = “força” de cada subconjunto • Para L classificadores, existem (2^k) – 1 subconjuntos • Logo, são (2^k) – 1 medidas fuzzy
Combinadores Indiferentes à Classe • Geram μj(x) usando todos os scores da DP