1 / 18

Vida Artificial

Vida Artificial. bio-informática 5º(I.I.) Ernesto García Gil. Vida artificial. La vida artificial es el estudio de la vida y de los sistemas artificiales que exhiben propiedades similares a los seres vivos, a través de modelos de simulación

edan
Download Presentation

Vida Artificial

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Vida Artificial bio-informática 5º(I.I.) Ernesto García Gil

  2. Vida artificial • La vida artificial es el estudio de la vida y de los sistemas artificiales que exhiben propiedades similares a los seres vivos, a través de modelos de simulación • Los investigadores de vida artificiales se han dividido a menudo en dos grupos principales (aunque otros clasificaciones son posibles): • La posición de vida artificial dura/fuerte manifiesta que "la vida es un proceso que se puede conseguir fuera de cualquier medio particular". (John Von Neumann). Notablemente, Tom Ray declaraba que su programa Tierra no estaba simulando vida en un ordenador, sino la estaba sintetizando. • La posición de vida artificial débil niega la posibilidad de generar un "proceso de vida" fuera de una solución química basada en el carbono. Sus investigadores intentan en cambio imitar procesos de vida por entender aspectos de fenómenos sencillos. La manera habitual es a través de un modelo basado en agentes, que normalmente da una solución posible mínima. El campo se caracteriza por el uso extenso de programas informáticos y emulaciones que incluyen cálculo evolutivo (algoritmos evolutivos, algoritmos genéticos programación genética, inteligencia de enjambre, optimización de colonias de hormigas),

  3. Antes de los computadores • A finales de los años 40, Von Neumann hizo una conferencia titulada “La Teoría General y Lógica de Autómatas". Definía un "autómata" como cualquier máquina cuyo comportamiento provenía de la lógica, paso a paso, combinando información desde el ambiente y su propia programación, y decía que al final se encontrarían organismos naturales que siguieran reglas simples similares. También habló sobre la idea de máquinas que se auto duplican • El profesor de Cambridge John Horton Conway inventó el autómata celular más famoso de los años 60. Lo denominó el Juego de la Vida, y consiguió publicidad a través de la columna de Martin Gardner en la revista Scientific American.

  4. El juego de la vida • El juego de la vida es en realidad un juego de cero jugadores • El "tablero de juego" es una malla formada por cuadrados ("células") que se extiende por el infinito en todas las direcciones. Cada célula tiene 8 células vecinas, que son las que están próximas a ella, incluso en las diagonales. Las células tienen dos estados: están "vivas" o "muertas" (o "encendidas" y "apagadas"). El estado de la malla evoluciona a lo largo de unidades de tiempo discretas (se podría decir que por turnos). El estado de todas las células se tiene en cuenta para calcular el estado de las mismas al turno siguiente. Todas las células se actualizan simultáneamente. • Una celda muerta con exactamente 3 celdas vecinas vivas "nace" (al turno siguiente estará viva). • Una celda viva con 2 o 3 celdas vecinas vivas sigue viva, en otro caso muere o permanece muerta ( por "soledad" o "superpoblación") http://www.granvino.com/jam/stuff/juegos/gamoliyas/spanish/index.htm

  5. 1970s-1980s • Christopher Langton fue un investigador poco convencional, con una carrera académica sin distinciones que lo llevó a conseguir un trabajo programando mainframes para un hospital. Lo cautivó el Juego de la Vida de Conway, y empezó a perseguir la idea que una computadora puede emular criaturas vivas. Tras años de estudio , empezó a intentar actualizar el autómata celular de Von Neumann y el trabajo de Edgar F. Codd, que simplificó el de veintinueve estados de Von Neumann a uno con sólo ocho estados. Consiguió el primer organismo computacional auto replicado en octubre de 1979, usando simplemente un ordenador de sobremesa Apple II. Entró al programa de graduados del Logic of Computers Group el año 1982, a los 33 años, y ayudó a crear una nueva disciplina. • El anuncio oficial de Langton de la conferencia "Artificial Life I" fue la primera descripción de un campo que avance casi no existía:

  6. Primera descripción de vida artificial, conferencia de Langton • La vida artificial es el estudio de sistemas artificiales que exhiben comportamientos característicos de sistemas vivos naturales. Es la búsqueda de una explicación de la vida en cualquiera de sus posibles manifestaciones, sin restricciones a un ejemplo particular que haya evolucionado en la Tierra. Están incluidos experimentos biológicos y químicos, simulaciones por ordenador, e iniciativas puramente teóricas. Los procesos que ocurren en una escala molecular, social y evolutiva son objeto de investigación. El objetivo final es extraer la forma lógica de los sistemas vivientes

  7. Simulación de modelos naturales • Las hormigas son insectos sociales que viven en colonias y que, debido a su colaboración mutua, son capaces de mostrar comportamientos complejos y realizar tareas difíciles desde el punto de vista de una hormiga individual. • Los algoritmos de CDH se inspiran directamente en el comportamiento de las colonias reales de hormigas para solucionar problemas de optimización combinatoria

  8. Interacción entre sistemas inteligentes • La interacción entre sistemas inteligentes es un tema intermedio entre sistemas inteligentes aislados y las sociedades, las cuales abarcan una gran cantidad de sistemas inteligentes. Pero tiene un gran valor práctico, porque esto es lo que hacemos diariamente: interactuamos con otros sistemas inteligentes

  9. Las hormigas, son capaces de seguir la ruta más corta en su camino de ida y vuelta entre la colonia y una fuente de abastecimiento. Esto es debido a que las hormigas pueden "transmitirse información" entre ellas gracias a que cada una de ellas, al desplazarse, va dejando un rastro de una sustancia llamada feromona a lo largo del camino seguido. Así, mientras una hormiga aislada se mueve de forma esencialmente aleatoria, los "agentes" de una colonia de hormigas detectan el rastro de feromona dejado por otras hormigas y tienden a seguir dicho rastro. Éstas a su vez van dejando su propia feromona a lo largo del camino recorrido y por tanto lo hacen más atractivo, puesto que se ha reforzado el rastro de feromona. Sin embargo, la feromona también se va evaporando con el paso del tiempo provocando que el rastro de feromona sufra, por otro lado, cierto debilitamiento. En definitiva, puede decirse que el proceso se caracteriza por una retroalimentación positiva, en la que la probabilidad con la que una hormiga escoge un camino aumenta con el número de hormigas que previamente hayan elegido el mismo camino.

  10. Modelo natural

  11. El primer algoritmo basado en la optimización mediante colonias de hormigas fue aplicado al Problema del Viajante

  12. Problemas a resolver mediante CDH • Los algoritmos basados en colonias de hormigas son muy útiles para resolver problema como : • combinatoria. • Asignación de recursos. • Rutas de transporte. • Todo aquello en donde se necesita minimizar o maximizar un resultado. • En general cualquier problemas de optimización

  13. Minería de datos, su importancia en la simulación • Cuando se crean simulaciones, se genera una cantidad inmensa de información • La minería de datos nos ayuda, a extraer información útil de un gran volumen de datos • Bajo el nombre de minería de datos se engloban un conjunto de técnicas encaminadas a la extracción de conocimiento procesable, implícito en las bases de datos.

  14. Ejemplos de uso de la minería de datos • Detección de hábitos de compra en supermercados • Patrones de fuga : existe un comprensible interés en detectar cuanto antes aquellos clientes que puedan estar pensando en rescindir sus contratos para, posiblemente, pasarse a la competencia. • Un caso análogo es el de la detección de transacciones de blanqueo de dinero o de fraude en el uso de tarjetas de crédito o de servicios de telefonía móvil

  15. Fases de un Proyecto de Minería de Datos • El proceso de minería de datos pasa por las siguientes fases:     • Filtrado de datos se eliminan valores incorrectos, no válidos, desconocidos... según las necesidades y el algoritmo a usar     • Selección de Variables La selección de características reduce el tamaño de los datos eligiendo las variables más influyentes en el problema     • Extracción de Conocimiento se obtiene un modelo de conocimiento, que representa patrones de comportamiento observados en los valores de las variables del problema o relaciones de asociación entre dichas     • Interpretación y Evaluación Una vez obtenido el modelo, se debe proceder a su validación, comprobando que las conclusiones que arroja son válidas y suficientemente satisfactorias

  16. Minería de datos y otras disciplinas análogas • Es difícil definir las fronteras existentes entre la minería de datos y disciplinas análogas, como pueden serlo la estadística, la inteligencia artificial • El hecho es, que en la práctica la totalidad de los modelos y algoritmos de uso general en minería de datos redes neuronales, árboles de regresión y clasificación, modelos logísticos, análisis de componentes principales, etc.— gozan de una tradición relativamente larga en otros campos.

  17. Estadística • Análisis de varianza, mediante el cual se contrasta la existencia de diferencias significativas entre las medidas de una o más variables continuas en grupo de población distintos • Ji cuadrado: por medio del cual se realiza el contraste la hipótesis de dependencia entre variables • Análisis discriminante: permite la clasificación de individuos en grupos que previamente se han establecido • Series de tiempo: permite el estudio de la evolución de una variable a través del tiempo para, a partir de ese conocimiento

  18. Informática • Algoritmos genéticos: Son métodos numéricos de optimización, en los que aquella variable o variables que se pretenden optimizar junto con las variables de estudio constituyen un segmento de información • Sistemas Expertos: Son sistemas que han sido creados a partir de reglas prácticas extraídas del conocimiento de experto • Redes neuronales: Genéricamente, son métodos de proceso numérico en paralelo, en el que las variables interactúan mediante transformaciones lineales o no lineales, hasta obtener unas salidas.

More Related