200 likes | 364 Views
“REAL ADABOOST” CON FUSIÓN CONTROLADA POR PUERTA (GCF-RAB). Aníbal R. Figueiras-Vidal G2PI-DTSC-UCIIIM. ÍNDICE. 1. DECISIÓN MÁQUINA 2. CONJUNTOS 3. COMITÉS 4. BOOSTING 5. GCF-RAB 6. DISEÑOS CONSIDERADOS 7. RESULTADOS 8. LÍNEAS DE TRABAJO. - 1 -.
E N D
“REAL ADABOOST”CONFUSIÓN CONTROLADA POR PUERTA(GCF-RAB) Aníbal R. Figueiras-Vidal G2PI-DTSC-UCIIIM
ÍNDICE 1. DECISIÓN MÁQUINA 2. CONJUNTOS 3. COMITÉS 4. BOOSTING 5. GCF-RAB 6. DISEÑOS CONSIDERADOS 7. RESULTADOS 8. LÍNEAS DE TRABAJO - 1 -
1. DECISION MÁQUINA H0 × Fw(x) Dj Hi × . . . x H M H I × Máquina: información (supervisión) (semisupervisión) Propósitos: explicativo (Occam) predictivo (“No free lunch”) -2-
2. CONJUNTOS (Occam vs. Epicuro) Ventajas: potencia expresiva a menor coste de diseño eventualmente, mejor interpretabilidad Familias: comités : aprendices y fusión separados cooperativos : aprendices y fusión simultáneos “boosting” (y NCL) MoE -3-
3. COMITÉS Aprendices: “diversidad” arquitectura aprendizaje: datos variables inicialización algoritmo . . . (extremo: expertos regionales) (también diseños cooperativos) Fusión: fija (promedio) / entrenable (comb. lineal) global (anteriores) / local (mayoría; puerta) . . . Ejs. importantes: “bagging” (aprendices con “booststrap”) (“wagging”, etc.) RF (variables y datos) (se basan en aprendices inestables) (RF: pierden inteligibilidad; paralelas a Inteligencia Colectiva… ¡mal pensada!) (fusión puerta) -4-
4. BOOSTING (1) A. AdaBoost Aprendices: decisores débiles y duros Combinación lineal: Objetivo: y se diseña aprendiz a aprendiz: -5-
4. BOOSTING (2) Minimizando -6-
4. BOOSTING (3) Algoritmo AdaBoost 1. 2. 2.1. 2.2. a. b. • Condición de parada: • 4. • 5. Vuelta a 2 -7-
4. BOOSTING (4) Esquema -8-
4. BOOSTING (5) B. Real AdaBoost Aprendices: decisores débiles y blandos Combinación lineal: Se minimiza la cota superior del coste exponencial -9-
4. BOOSTING (6) Resultan: para , ha de minimizarse admitiendo : parámetro de separación o corte (“edge”) tras ello, queda y anulando la derivada -10-
4. BOOSTING (7) Algoritmo Real AdaBoost 1. 2. Para 2.1. 2.2. a. b. 3. Condición de parada 4. 5. Vuelta a 2 -11-
4. BOOSTING (8) • Casi nunca sobreajusta; explicaciones por trabajar con Breiman: por construir con aprendices blandos y énfasis • Cuando sobreajusta: por énfasis excesivo sobre muestras imposibles arreglarlo: selección de muestras regularización énfasis mixtos . . . alternativa: fusión local (“débil”) -12-
5. GCF-RAB (1) Idea siendo una capa de RBF; p.ej., gaussianas dados Entrenamiento (tipo “arcing”) , de forma convencional (min error cuadrático muestral enfatizado) , por gradiente sobre usando -13-
5. GCF-RAB (2) reuniendo expresiones y se toma ; con lo que se tiene -14-
5. GCF-RAB (3) Arquitectura -15-
6. DISEÑOS CONSIDERADOS (1) A. Selección de centroides También Shin-Cho + Hwang-Bang A.1. Preselección (S-C) y • proximidad a la frontera: • corrección: Se preseleccionan las muestras con y Se explora A.2. Selección (APC-III H-B) • muestra de mayor • excluir muestras en una hiperesfera de radio • iterar hasta que no queden muestras -16-
6. DISEÑOS CONSIDERADOS (2) (promedio de distancias mínimas) 1. ( (no. nodos aprendices MLP)) 2. : agrupamiento en torno a # : no. de muestras -17-
7. RESULTADOS EXPERIMENTALES (50 X 5-fold) (carga en operación: órdenes similares, si se utilizan LUTs) -18-
8. LÍNEAS DE TRABAJO • Mejores métodos de selección de centroides (también paso a paso) • Inclusión de énfasis generalizados • Otras puertas (complementarias: aprendices locales + fusión global) Extensiones a otros métodos constructivos (NCL, etc.) -19-