1 / 34

Grupo de Aprendizaje Automático Universidad de Oviedo en Gijón aic.uniovi.es/MLGroup

Selección de Atributos en Aprendizaje de Preferencias (usando SVM). Grupo de Aprendizaje Automático Universidad de Oviedo en Gijón www.aic.uniovi.es/MLGroup. Índice de la presentación. Aprendizaje de Preferencias Máquinas de Vectores Soporte SVM para Aprendizaje de Preferencias

elu
Download Presentation

Grupo de Aprendizaje Automático Universidad de Oviedo en Gijón aic.uniovi.es/MLGroup

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Selección de Atributosen Aprendizaje de Preferencias(usando SVM) Grupo de Aprendizaje Automático Universidad de Oviedo en Gijón www.aic.uniovi.es/MLGroup Red de Minería y Aprendizaje

  2. Índice de la presentación • Aprendizaje de Preferencias • Máquinas de Vectores Soporte • SVM para Aprendizaje de Preferencias • Selección de Atributos • Resultados Experimentales • Conclusiones Red de Minería y Aprendizaje

  3. Aprendizaje de Preferencias • Aplicaciones típicas: • Calidad de productos • Recuperación de información • Interfaces adaptativas • Problemas en los que los métodos de regresión fracasan • ¿Por qué fracasan? • Las calificaciones proceden de diferentes fuentes (distintas escalas) • Tienen un sentido relativo Red de Minería y Aprendizaje

  4. Aprendizaje de Preferencias Red de Minería y Aprendizaje

  5. Aprendizaje de Preferencias • No intenta predecir las etiquetas numéricas • Datos: conjuntos de relaciones de preferencia • { (vi, ui) : i=1..l } donde vi es considerado mejor que ui (vi > ui ) • Reflejan el sentido relativo de las calificaciones • Soluciones: • Clasificadores: no transitivos • Funciones de Preferencia Red de Minería y Aprendizaje

  6. Funciones de Preferencia f: d tal que f(v) > f(u) siempre que v > u Si consideramos f lineal, en ese caso fw(x) = +w,x, +w,v, >+w,u, (v-u) , + (u-v) , - Red de Minería y Aprendizaje

  7. Máquinas de Vectores Soporte • Introducidas en los 90 por Vapnik • Se basan en la Minimización del Riesgo Estructural (SRM) • 92: maximización del margen y uso de kernels • 95: margen blando • Rápido desarrollo: algoritmos más eficientes, diseño de kernels “No hay nada más práctico que una buena teoría” Red de Minería y Aprendizaje

  8. Maximización del Margen Red de Minería y Aprendizaje

  9. Hiperplano Óptimo Red de Minería y Aprendizaje

  10. Problema Primal Maximizar el margen equivale a minimizar la norma Minimizar: Sujeto a: Red de Minería y Aprendizaje

  11. Teoría de Optimización Se usa la teoría de Lagrange (o de Kuhn-Tucker) Lagrangiana: Diferenciar y sustituir Red de Minería y Aprendizaje

  12. Problema Dual Maximizar: Sujeto a: ¡Podemos usar KERNELS! Red de Minería y Aprendizaje

  13. Propiedades de la solución • Margen • Problema de Optimización cuadrática: • convexidad • no hay mínimos locales • resoluble en tiempo polinomial • Dualidad: permite el uso de kernels • Esparsidad: sólo son necesarios los puntos cerca del margen (vectores soporte) Red de Minería y Aprendizaje

  14. Margen blando Red de Minería y Aprendizaje

  15. Margen blando Minimizar: Sujeto a: Maximizar: Sujeto a: Red de Minería y Aprendizaje

  16. Clasificadores no-lineales • Solución 1: crear una red neuronal • Problemas: • Topología • Mínimos locales • Muchos parámetros • Solución 2: transformar (kernel) el espacio de entrada en un espacio de características, y aplicar un clasificador lineal. Hay que decidir: • qué espacio de características es el adecuado para el problema • el grado de sobreajuste (C) Red de Minería y Aprendizaje

  17. Clasificadores no-lineales Maximizar: Sujeto a: Kernel Polinómico Kernel Gaussiano Kernel Perceptrón Multicapa Red de Minería y Aprendizaje

  18. Features space K Espacio de características Input space Red de Minería y Aprendizaje

  19. Kernels Red de Minería y Aprendizaje

  20. SVM puede resolver problemas de… • Clasificación binaria • Multiclasificación • Regresión • Clustering • y … de Aprendizaje de Preferencias Red de Minería y Aprendizaje

  21. SVM para Preferencias [Herbrich] Minimizar: Sujeto a: Dual: Red de Minería y Aprendizaje

  22. FSS en Aprendizaje de Preferencias • Kernel Lineal • Ranking de conjunto de atributos: permite construir d subconjuntos de atributos • Relieve (Kohavi, John, 97), modificación deRelief (Kira, Rendell, 92) • RFE (Recursive Feature Elimination) (Guyon et al.,02) • Selección del mejor subconjunto: • Cross-Validation • ADJ (Schuurmans, 97) métrica entre modelos Red de Minería y Aprendizaje

  23. RFE (Recursive Feature Elimination) • Backward Feature Elimination: borra un atributo por iteración • Criterio (kernel lineal): menor (wi)2siendo wiel coeficiente del atributo i en el hiperplano inducido por SVM • Obtiene una lista ordenada de subconjuntos de atributos Red de Minería y Aprendizaje

  24. RFE (Recursive Feature Elimination) Funcion SVM-RFE(T, fs): Una lista ordenada de subconjuntos de atributos //T: Conjunto de relaciones de preferencias //fs: Conjunto de atributos |fs|=d //L: Lista ordenada de subconjuntos de atributos Fd = fs; L = [ Fd ]; //Inicialmente, un subconjunto con todos los atributos Para cadajdesdedhasta 2 do w = SVM( T ); //Se entrena SVM r = //Criterio de selección Fj-1 = Fj\ fr; //Se borra el atributo r deFj L = L + [Fj-1]; //Se añade el subconjunto con el resto de attr. T = {x'i : x'i is xi0T con fr borrado}; //Borra atributo r de T FinPara RetornaL; //L: lista ordenada de subconjunto de atributos FinFuncion Red de Minería y Aprendizaje

  25. ADJ (Schuurmans) • Permite la selección entre múltiples hipótesis ordenadas por su complejidad • Adaptable para técnicas FSS • Define una métrica en el espacio de hipótesis • La distancia entre dos hipótesis wFiy wFjes: • err(wFi(x), wFj(x))mide las discrepancias en un punto del espacio de ejemplos Red de Minería y Aprendizaje

  26. ADJ (Schuurmans) • Hipótesis seleccionada: • d’ se mide las discrepancias en las predicciones sobre dos conjuntos T y U Red de Minería y Aprendizaje

  27. Resultados Experimentales • Problema real: Calificación de bovinos • Idea: morfología del animal debe servir para evaluar la capacidad como productor de carne • Sistema: • Obtención de medidas morfológicas (técnicas de Visión Artificial) • Calificación (ordenación) por grupos de expertos • Aplicación de sistemas de aprendizaje de preferencias • Proceso costoso: la selección de atributos debe jugar un papel decisivo Red de Minería y Aprendizaje

  28. Resultados Experimentales Red de Minería y Aprendizaje

  29. Resultados Experimentales Red de Minería y Aprendizaje

  30. Resultados Experimentales Red de Minería y Aprendizaje

  31. Resultados Experimentales Red de Minería y Aprendizaje

  32. Resultados Experimentales Red de Minería y Aprendizaje

  33. Conclusiones • El aprendizaje de preferencias resuelve tareas en las que la regresión fracasa • Las máquinas de vectores soporte pueden aprender preferencias • Se están desarrollando técnicas de selección de atributos para SVM • Trabajo futuro, FSS para kernels no lineales Red de Minería y Aprendizaje

  34. Selección de Atributosen Aprendizaje de Preferencias(usando SVM) Grupo de Aprendizaje Automático Universidad de Oviedo en Gijón www.aic.uniovi.es/MLGroup Red de Minería y Aprendizaje

More Related