380 likes | 567 Views
ANÁLISIS DE EMPAQUETAMIENTO Y PROBLEMAS DE PARTICIÓN RELACIONADOS E.G. Coffman D.S. Johnson P.W. Shor G.S. Lueker. JOHANA ROMERO LEON F. GOMEZ C. P ROBLEMAS C ONSIDERADOS. Empaquetamiento en casillas (BP)
E N D
ANÁLISIS DE EMPAQUETAMIENTO Y PROBLEMAS DE PARTICIÓN RELACIONADOSE.G. CoffmanD.S. JohnsonP.W. ShorG.S. Lueker JOHANA ROMEROLEON F. GOMEZ C.
PROBLEMAS CONSIDERADOS Empaquetamiento en casillas (BP) Dados c>0 y el conjunto S={X1…Xn} con 0<Xic, 1 i n, particione S en el minimo numero de subconjuntos tales que la suma de los Xi en cada subconjunto no sea mayor que c.
PROBLEMAS CONSIDERADOS Programación de un Multiprocesador (MS) Dado un entero m 1 y un conjunto S={X1…Xn}, particione S en m subconjuntos tales que entre todas las particiones, la maxima suma de los Xi en un subconjunto este minimizada. Makespan:Tiempo de terminación de la última tarea en finalizar.
NOTACIÓN • Conjunto a particionar se denota por la lista Ln=(X1,…Xn). • Si H es una heurística MS entonces H(Ln, m) denota el makespan generado. (m es el número de procesadores). • Si H es una heurística BP entonces H(Ln) denota el número de casillas con capacidad unitaria en las que H empaqueta los items de Ln.
ANÁLISIS PROBABILÍSTICO • Los Xi son tomados como muestras independientes de una variable aleatoria X con una distribución F(x) dada. • El propósito es lograr una estimación de distribuciones tales como P[H(Ln) x] u obtener valores esperados tales como E[H(Ln,m)], donde las esperanzas estan sobre todas las muestras de n items Ln=(X1 ,…, Xn).
ALGORITMOS BP Algoritmo Next Fit (NF): próximo en ser encajado. 1. Empaquetar X1 en B1(primer casilla) 2. Para i=2 hasta n • Chequear la última casilla no vacia Bj. Si Xi encaja en ésta, guardar Xi en Bj. De lo contrario, guardar Xi en la casilla vacia Bj+1. Esta se convertira en la nueva casilla no vacia con más alto subindice.
ALGORITMOS BP Algoritmo First Fit (NF): primero en encajar. 1. Empaquetar X1 en B1. 2. Para i= 2 hasta n • Guardar Xi en la primera casilla no vacia con menor subindice en la que encaje. Si no encaja en ninguna, guardar Xi una casilla vacia.
ALGORITMOS BP Algoritmo Best Fit (NF): mejor encajado. 1. Empaquetar X1 en B1. 2. Para i= 2 hasta n • Guardar Xi en la casilla no vacia en la que encaje mejor, es decir, en la que tenga la menor capacidad sin usar. Si no encaja en ninguna, guardar Xi una casilla vacia.
ALGORITMOS BP Vesiones mejoradas: • Algoritmo NFD • Algoritmo FFD • Algoritmo BFD Estos se aplican a la lista (X(n),…, X(1)) donde X(i) es el i-ésimo items mas pequeño.
ANÁLISIS DE LOS ALGORITMOS BP Con X U(0,1) NF: E[WNF(Ln)] n/6 FF: E[WFF(Ln)]=(n2/3) BF: E[WBF(Ln)]=((n)log3/4n) NFD: E[WNFD(Ln)]=(.145...)n FFD,BFD,OPT: E[WH(Ln)]=(n)) (E[WH(Ln)]=E[H(Ln)-(Ln)] = E[H(Ln)]-n/2)
ALGORITMOS MS • List Scheduling(LS): programación de una lista • 1. Programar X1 en P1 • 2. Para i =2 hasta n • Se programa Xi en el procesador que tenga la menor carga de trabajo. • Largest processing time(LPT): Tiempo más largo de procesamiento. Algoritomo LS, más ordenamiento decreciente inicial de la lista de tareas.
ALGORITMOS MS Largest-fist differencing(LFD):La diferencia más grande primero. (m=2) Para i=1 hasta n Se escogen las tareas X y Y más largas en lista Ln(i) Estas tareas se diferencias en la lista Ln(i+1) que va a ser igual a Ln(i), reemplazando las tareas X y Y por la tarea|X-Y|. (Ln= Ln(1) ).
ALGORITMOS MS Largest-fist differencing(LFD):La diferencia más grande primero. (m=2) Ln(n) será una lista con un único elemento. Las tareas diferenciadas en cada lista se van a programar en procesadores distintos, buscando que la diferencia entre las cargas de trabajo de estos sea el valor de Ln(n).
ANÁLISIS DE LOS ALGORITMOS MS Con X U(0,1) LS: E[ALS(Ln,2)] = 1/6 LPT: E[ALPT(Ln,2)] c/[2(n+1)] LFD*: E[ALFD*(Ln,2)]=O(n-c*log n) (Ahn,m)]=[m*H(Ln,m)-(Ln)]/m
TÉCNICAS ANALÍTICAS Cadenas de Markov Para el algoritmo LS con m= 2 procesadores La Xi son v.i.i.d. Aleatorias, y {Vi}i 0 es una cadena de Markov. Entonces se tiene: E[ALS(Ln,2)] E[Vi]/2= 1/6
TÉCNICAS ANALÍTICAS Cadenas de Markov Para el algoritmo NF {NF(Ln),ln}n 1 es una cadena de markov bivariable. ln es la suma de los tamaños de los items de Ln, empaquetados. Con X U(0,1), E[WNF(Ln)] = n/6+6
TÉCNICAS ANALÍTICAS • LIMITES • Limitando la función objetivo: Encontrar g(Ln) tal que g(Ln) H(Ln) para toda Ln. En el caso promedio E[H(Ln)] E[g(Ln)]. • Algoritmos dominantes:Introducir un algoritmo más simple y fácil de analizar H´ , para el cual se pueda probar que H´(Ln) H(Ln).
CORRESPONDECIA ESTOCASTICA PLANA • Los problemas de correspondencia en una o mas dimensiones han surgido en el analisis de diversos empaquetamientos heurísticos.
Mn denote una correspondencia maxima superior derecha de puntos positivos a puntos negativos tal que si un positivo en (x,y) es asociado a uno negativo en (x',y'), luego x x', yy’
Un denote el numero de puntos que quedan sin asociar por Mn • Los limites asintóticos sobre el valor experado estan dados por: E[Un]=n log 3/4 n)
MBF (Mejor encaje modificado) acerca una casilla a cualquier item alejado siempre y cuando la casilla reciba un item que no sea mas grande que 1/2. • Las casillas de MBF tienen al menos dos ítems
Traza los items de Ln como puntos en la mitad izquierda del cuadrado unitario, de manera que los Xi tienen una coordenada “y” equivalente a 1-i/n y una coordenada “x”,denotada por Xi.
Si Xi 1/2 o denotada por 1-Xi si 1/2 <Xi 1 • Una correspondencia MBF es una correspondencia maxima superior derecha
El modelo difiere del original en dos aspectos: 1. Los puntos son muestras en la mitad izquierda del cuadrado unitario 2. La coordenada x ha sido separada de manera que x pertenece a {0,1/n,….(n-1)/n}.
observamos que MBF(Ln) es la suma del espacio ocupado (Ln) y del espacio que no esta ocupado, la mas reciente cantidad limitada por Un. De esta manera E[MBF(Ln)]=n/2+n log 3/4 n)
PROGRAMACION LINEAL • Si el tamaño de los items en Ln conforman un conjunto discreto, luego el BP es facilmente formulado como un programa entero.
S1,…,SN este conformado por items de diferente tamaño en Ln y permitamos que mj 1 j N, sea el numero de items con tamaño Sj
Definición: la i-esima configuración posible es una secuencia de enteros Cij0, 1 j N, tales que es decir, un conjunto de items Cij de tamano Sj 1 j N que pueda ser empacado dentro de una casilla simple
Si M denota el numero de configuraciones posibles, luego, donde {ti*} resuelve el programa entero: minimizar ti sujeto a que ti 0, 1 i M y tiCij mj 1 j N.
Las disminuciones de tales programas enteros conducen a límites útiles para el análisis de soluciones óptimas.
TEMAS RELACIONADOS • Describe algunas de las preguntas mas importantes que se han generado de los estudios iniciales de probabilidad de BP y MS.
Variantes: Los problemas siguientes tienen la misma demostración o ejemplo Ln como BP. • Cubierta de las casillas. La partición de Ln en un número maximo de subconjuntos (casillas) tales que cada una sume al menos 1.
Empaquetamiento en casillas doble. Encontrar un subconjunto L’n Ln de máxima cardinalidad C(Ln,m) tal que L’n pueda ser particionado en m subconjuntos donde cada uno sume máximo 1
DIMENSIONES SUPERIORES • Las adaptaciones de BP a dos y tres dimensiones tienen una motivación practica persuasiva, especialmente en las aplicaciones de recorte de existencias.
En cuanto al empaquetamiento en dos dimensiones existe un modelo probabilístico muy comun, en el cual, toda la altura y ancho de los rectangulos se suponen como muestras independientes de U(0,1)
LIMITES GENERALES • Los límites inferiores para BP han sido utiles en la estimacion del costo de ciertas restricciones para el diseno de los algoritmos. • Permiten evaluar el espacio que se pierde en promedio al usar algorítmos en línea
DISTRIBUCIONES • En los estudios de BP se ha hecho énfasis sobre la distribución uniforme U(0,1), debido a que esto permite un análisis mas dócil. • Los modelos de MS se han concentrado en U(0,1) y en distribuciones exponenciales, por la misma razón
INSTRUCCIONES PARA ESTUDIOS LEJANOS • Existen problemas abiertos, concernientes con distribuciones F(x) mas generales y con resultados mas precisos, limites utiles sobre las constantes multiplicaticas ocultas en la notacion asintótica