470 likes | 1.41k Views
TAXONOMÍA DE FLYNN. SISD ( Single Instruction, Single Data ) Es una computadora con un flujo de instrucciones y uno de datos único. Se refiere a las computadoras convencionales de Von Neuman. Todas las computadoras tradicionales de un procesador caen dentro de esta categoría. Ejemplo: PC’s.
E N D
SISD (Single Instruction, Single Data) • Es una computadora con un flujo de instrucciones y uno de datos único. • Se refiere a las computadoras convencionales de Von Neuman. Todas las computadoras tradicionales de un procesador caen dentro de esta categoría. Ejemplo: PC’s. • SIMD (Single Instruction, Multiple Data) • Computadoras con un flujo de instrucciones único y varios flujos de datos múltiple (computadores matriciales).
SIMD... • Este tipo se refiere a ordenar procesadores con unidad de instrucción que busca una instrucción y después instruye a varias unidades de datos para que la lleven a cabo en paralelo. • Cada una con sus propios datos. • Es un arreglo de procesadores. Cada procesador sigue el mismo conjunto de instrucciones. • Diferentes elementos de información son asignados a cada procesador.
SIMD... • Utilizan memoria distribuida. • Típicamente tienen miles procesadores simples. • Son utilizadas en redes neuronales. • MISD (Multiple Instruction, Single Data) • Computadoras con un flujo de varias instrucciones y un flujo de datos (clase no implementada). • Ninguna de las computadoras conocidas se ajusta a este modelo. • No son usadas, y no son significativas.
MIMD (Multiple Instruction, Multiple Data) • Que significa un grupo de computadoras independientes, cada una con su propio contador del programa y datos. • Todos los sistemas distribuidos son MIMD. • Múltiples computadoras y multiprocesadores. • Las piezas de código son distribuidas entre los procesadores. • Los procesadores pueden ejecutar la misma o instrucción o diferentes instrucciones.
MIMD... • Se puede decir que MIMD es un super conjunto de SIMD. • Diferentes elementos de información se asignan a diferentes procesadores. • Pueden tener memoria distribuida o compartida. • Cada procesador MIMD corre casi independientemente de los otros.
MIMD... • Las computadoras MIMD pueden ser utilizadas en aplicaciones con información en paralelo, o con tareas en paralelo. • Ejemplos: • SGI/Cray Power Challenge Array • SGI/Cray Origin-2000 • HP/Convex SPP-2000.
Un avance sobre la clasificación de Flynn incluye la división de las computadoras MIMD en dos grupos: • Multiprocesadores: poseen memoria compartida. • Los distintos procesadores comparten el mismo espacio de direcciones virtuales. • Multicomputadoras: no poseen memoria compartida. • Ejemplo: grupo de PCs conectadas mediante una red.
Cada una de las categorías indicadas se puede clasificar según la arquitectura de la red de interconexión en: • Esquema de bus: • Existe una sola red, bus, cable u otro medio que conecta todas las máquinas. • Ejemplo: la televisión por cable.
Esquema con conmutador: • No existe una sola columna vertebral de conexión: • Hay múltiples conexiones y varios patrones de conexión. • Los mensajes se mueven a través de los medios de conexión. • Se decide explícitamente la conmutación en cada etapa para dirigir el mensaje a lo largo de uno de los cables de salida. • Ejemplo: el sistema mundial telefónico público.
Otro aspecto de la clasificación considera el Acoplamiento entre los Equipos. • Sistemas Fuertemente Acoplados. • El retraso al enviar un mensaje de una computadora a otra es corto y la tasa de transmisión es alta. • Generalmente se les utiliza como sistemas paralelos.
Sistemas Débilmente Acoplados. • El retraso de los mensajes entre las máquinas es grande y la tasa de transmisión es baja. • Generalmente se les utiliza como sistemas distribuidos. • Generalmente, los multiprocesadores están más fuertemente acoplados que las multicomputadoras.
FACTORES QUE IMPULSAN LA RENOVACIÓN EN ARQUITECTURA • Necesidad de Potencia de Cálculo: crecimiento exponencial. • Procesos complejos en Tiempo Real (Control de Centrales, de Viajes Espaciales, Control de Tráfico, etc). • Simulación (de Moléculas, de Poblaciones, Predicción Meteorológica, Modelos Mecánicos, etc). • Problemas hasta ahora no investigados (salvo por procesos heurísticos), pero pero posibles de resolver.
Limitación de las posibilidades de la Arquitectura clásica. • Presencia de múltiples cuellos de botella: • Memoria • Unidades Funcionales • Limitaciones Físicas: • Lento avance en las tecnologías de Memoria. • Dificultad para aumentar la densidad de integración. • Crecimiento incontrolado de la disipación de calor al aumentar la frecuencia.
RECURSO: EXPLOTAR EL PARALELISMO. • Seguir investigando en mejoras tecnológicas: • Mayores Densidades de Integración, Técnicas de Disipación de Calor. • Transistores Moleculares. • Computación Cuántica.
PERO: simultáneamente, buscar formas más eficientes de utilizar los recursos de una computadora. • Si las cosas no se pueden hacer más deprisa, hacer • más cosas a la vez => Paralelismo. • Conjunto de tareas independientes entre sí(y que son susceptibles de ser llevadas a cabo de forma simultánea).
Sistemas Operativos Distribuidos. Andrew S. Tanenbaum. Prentice Hall. • http://atc2.aut.uah.es/~nacho/AII/tema1.v3.2.pdf • http://andre.martinez.net/tareas/Ago-Dic2000/flynn.htm • http://exa.unne.edu.ar/depar/areas/informatica/SistemasOperativos/SO7.htm