1 / 67

Ciencia cognitiva

Ciencia cognitiva. Carlos Reynoso UNIVERSIDAD DE BUENOS AIRES carlosreynoso@filo.uba.ar billyreyno@hotmail.com. Comprender la mente puede ser menos complicado de lo que nuestra vanidad espera o de lo que nuestro intelecto teme. - Rodolfo Llinás, 1986. Objetivos.

elinor
Download Presentation

Ciencia cognitiva

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Ciencia cognitiva Carlos ReynosoUNIVERSIDAD DE BUENOS AIREScarlosreynoso@filo.uba.ar billyreyno@hotmail.com

  2. Comprender la mente puede ser menos complicado de lo que nuestra vanidad espera o de lo que nuestro intelecto teme. - Rodolfo Llinás, 1986 Objetivos • Elaborar una presentación de la disciplina desde el punto de vista antropológico. • Mostrar formas complejas de entendimiento (posible) entre antropología y otras disciplinas • Poner de manifiesto las limitaciones inherentes a las concepciones antropológicas de los conceptos cognitivos esenciales • Conocimiento, símbolo, representación, mente, aprendizaje, lógica, pensamiento, imagen, inteligencia, memoria

  3. Agenda • Historia de la ciencia cognitiva • Psicología cognitiva* • Inteligencia artificial, GOFAI • Inteligencia artificial, conexionismo • Antropología cognitiva • Conclusiones • Trabajos pendientes & Referencias

  4. Definiciones • “Cognición” – Se puede encontrar a fines del siglo XIX (Wilhelm Wundt, William James) • Ciencia cognitiva = estudio de la mente o de la inteligencia • Reemplazó a la idea de Inteligencia Artificial • Modelo de caja gris – Restitución de la mente • Investigación multidisciplinaria: psicología, neurociencia, antropología, filosofía, lingüística, computación científica, biología

  5. La “revolución cognitiva” • MIT, 11 de setiembre de 1956 (11 al 13) • Miller, Mágico número siete • Newell y Simon – Logic Theorist, GPS • Declinación (momentánea) de la neurociencia y auge de la lingüística • Chomsky – Tres modelos para la descripcióndel lenguaje • 1957: Syntactic structures • 1958: Review de Verbalbehavior de Skinner 

  6. Chomsky sobre Skinner • Cuestionamiento de la idea de que el lenguaje se puede insuflar via entrenamiento animal • Estímulo – Refuerzo – Privación • Predecir y controlar comportamiento verbal manipulando variables de entorno. • No habría restricciones de especie. • La contribución interna del hablante sería poco esencial.

  7. La revolución… • Chomsky (28 años a esa fecha) • No es viable un modelo de producción lingüística derivado de la teoría de la información de Shannon. • Base de su concepción de lenguajes formales y sus autómatas. • Base de los métodos formales en computación y de los compiladores de lenguajes formales. • Primer modelo “matemático” del lenguaje. • Segunda (o tercera) revolución lingüística.

  8. George Miller • The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information(1956) • Sólo se aplica a juicios o estímulos unidimensionales, no a recordar (por ejemplo) caras o lugares. • Capacidad de canal equivalente a 2.5 bits (unas 6 alternativas) – Se aplica a percepción, procesamiento y memoria. • “En realidad no hay ninguna magia en relación con tantos otros 7s; sólo una perniciosa coincidencia”. • Entre las coincidencias incluye las 7 notas de la escala musical, lo que sin duda es un error suyo. • No está demostrado que se aplique a la memoria a corto plazo. • Se ha convertido en una especie de mito urbano. • Elizabeth Rice (1980) – Cultural schemata.

  9. Anthony Wallace • “On being just complicated enough”, 1964 [disp] • Aunque el tamaño y complejidad de las sociedades varía enormemente, la dimensión del sistema de términos de parentesco no lo hace • Para transformar el número de términos en una cifra que sirva para medir complejidad, computó log2 1/L • Número de elecciones binarias necesario para producir un sistema de tamaño L

  10. Anthony Wallace • Todos los sistemas taxonómicos se pueden acomodar en un espacio que requiere 6 dimensiones binarias o menos

  11. Anthony Wallace • 26 = 64 • “Conjuntos contrastantes” = espacios taxonómicos, o sistemas institucionalizados de discriminación • Formas verbales en inglés, 61; 64 cuadrados en un tablero de ajedrez, menos de 64 términos numéricos básicos; menos de 64 rangos militares, etcétera

  12. Otros hitos • 1960 – George Sperling – Memoria icónica • 1967 – Ulric Neisser – Psicología cognitiva • Modelo computacional para memoria, razonamiento, percepción • 1969 – Modelos de la función cerebelar y de la visión de David Marr  • 1970s – Journals: Cognitive Psychology, Cognition, Memory & Cognition

  13. David Marr [1945-1980] • Fundador de la neurociencia computacional • Modelos de procesamiento visual: • Fisiología +IA+psicología • Entender el cerebro presupone entender los problemas que se le plantean y las soluciones que encuentra • Tres niveles de análisis: • El problema que la visión enfrenta (computacional) • La estrategia que puede usarse (algorítmico) • Cómo se realiza de hecho la actividad neuronal (implementacional)

  14. David Marr [1945-1980] • Proceso visual en tres etapas: • Esbozo primitivo (primal sketch), extrayendo rasgos de componentes fundamentales de la escena (bordes, regiones, etc) • Un esbozo de 2,5 dimensiones. Se reconocen sombras, texturas, etc • Un modelo continuo en 3 dimensiones • Dinámica de aprendizaje/optimización, que anticipa los métodos de los algoritmos naturales**

  15. David Marr [1945-1980] • “Ley del cuadrado inverso” para la investigación científica: • El valor de un estudio varía inversamente con el cuadrado de su generalidad • Avances en investigación de visión binocular • El libro casi póstumo de Marr es reconocido como la Biblia del MIT de visión de computadora. • Colin Ware – Information visualization (2004)* • Mallot & Allen – Computational vision (2004) • Uttal – Computational modeling of vision (1999)

  16. Relaciones interdisciplinarias © Howard Gardner, La nueva ciencia de la mente

  17. Tres modelos contrapuestos • IA “fuerte” - MIT • Artificial • Ligada a computadoras, lógica • Modelo mecánico • Deducción: cálculo de predicados • Newell-Simon, Russell/Whitehead, Frege • Atomismo, racionalismo • Conexionismo – Redes neuronales • Natural • Simulación del cerebro – The astonishing hypothesis (Francis Crick) • Aprendizaje, inducción • Modelo estadístico, caja negra

  18. Tres modelos contrapuestos • Neurociencia computacional* • Modelos computacionales del cerebro o de diversos componentes funcionales • Basado en intuiciones de Andrew Huxley, Alan Hodgkin y David Marr

  19. GOFAI

  20. Inteligencia artificial • Dificultad de definir consensuadamente “Inteligencia” • Propuesta de Alan Turing  • La inteligencia como medida del IQ (G) • Howard Gardner – Teoría de las múltiples inteligencias • La curva de campana (Charles Murray, Richard Herrnstein - 1994) • Discutido por Stephen Jay Gould en The mismeasure of man (nueva edición, 1996) • Todavía no hay definiciones aceptadas • La polémica es hoy explosiva y la antropología no tiene gran cosa que aportar al respecto, pues carece de método comparativo y de capacidad experimental. (Cole & Gay)

  21. La prueba de Turing • ¿Puede una máquina ser inteligente? • Sí, si inteligencia se define como la capacidad de engañar a un interlocutor humano. • Es posible hacerlo durante un corto tiempo. • Ejemplos: • “George” – Página de Simon Laven – http://www.simonlaven.com • The Postmodern Generator, http://www.elsewhere.org/pomo • A veces se confunde la Prueba de Turing con la idea de que el cerebro funciona como una Máquina de Turing.

  22. La prueba, Enigma, The Bombe & la Máquina

  23. SHRDLU • Terry Winograd, 1970

  24. Supuestos comunes a la IA • La cognición humana comparte características con el procesamiento de información de las computadoras. • Ese procesamiento es secuencial y serial. • Consiste en operaciones discretas. • La memoria es independiente del procesador. • Propósito general • Las operaciones se pueden describir en términos de reglas como las que caracterizan a los lenguajes de programación.

  25. Allen Newell y Herbert Simon • Logic Theorist, 1956 • Teoremas de Principia Mathematica • General Problem Solver, 1958 • SOAR, hasta 1990s – Arquitectura general para sistemas inteligentes, todavía activa

  26. Inteligencia Artificial ppd • John McCarthy, 1958 • Propuso utilizar cálculo de predicados para la representación del conocimiento. • Los programas deberían ser declarativos, no imperativos (o procedimentales). • También inventó el lenguaje Lisp. • Procesamiento de listas recursivas. • Prefiguró los Application Service Providers en 1960. • Obviamente no prosperó. • A principios de los 90s reconoció que se la había ido un poco la mano.

  27. GOFAI • John Haugeland, 1985 (Artificial intelligence, the very idea) – Good Old Fashioned Artificial Intelligence. • N-S - Sistema [físico] de procesamiento de símbolos. • Hechos y reglas. • Modelos de programación lógica. • Prolog, cláusulas de Horn – Alain Colmerauer y Robert Kowalski, 1972 • Algoritmo de resolución de Robinson • Cálculo de predicados de primer orden. • Cuantificación universal.

  28. Programación lógica • PROLOG • Hechos, reglas, preguntas, hipótesis • Reglas: mortal(X) :- hombre (X). • Hechos: hombre(socrates). • Pregunta extensional (en consulta): mortal(X). • Hipótesis: mortal(socrates). • Las hipótesis tienen la misma estructura de los hechos. • Las únicas respuestas a una hipótesis tienen que ser si o no.

  29. Aaron

  30. GOFAI - 2 • Sistemas expertos • Base de datos • Máquina de inferencia • Inferencia clínica • Mycin, Neo-Mycin, Pip, Internist, Dendral, SHRDLU • AGENI2 (Reynoso) • Limitaciones del modelo simbólico • No todo conocimiento puede representarse en términos de proposiciones o predicados • Reconocimiento de patrones • Identificación de instancias diferentes de un mismo objeto (firmas, huellas digitales) • Intolerancia a errores o destrucción parcial

  31. Inteligencia artificial • Aplicaciones antropológicas de IA simbólica • Sistemas expertos de diagnóstico clasificatorio • Modelos axiomáticos de la cultura • Matrimonio Kariera (Kemeny-Snell-Thompson) • Gramáticas culturales • Benjamin Colby – Cuentos Ixil • Análisis funcional del relato (Vladimir Propp) • Lógicas alternativas • Lógica temporal • Lógica no-monotónica • Logica polivalente (Lukasiewicz) • Lógica difusa (Lotfi Zadeh)

  32. Limitaciones técnicas de GOFAI • Sólo buena para campos conocidos de manera analítica y exhaustiva. • Poca tolerancia a errores. • Representación sintáctica, no realmente semántica. • Reconocimiento de patrones prácticamente imposible. • Carente de capacidad de recuperación ante destrucción parcial. • No muy eficiente para implementar aprendizaje. • El aprendizaje es mayormente inducción.

  33. Descrédito de la IA fuerte • Promesas no cumplidas – Invierno de la IA desde 1988 • Sistemas expertos exitosos, pero sólo útiles para tareas de diagnóstico • Varios SE embebidos en sistemas operativos • Fracaso histórico del programa japonés de máquinas de Quinta Generación • Proyección original de 5 mil millones de dólares • Prolog no puso soportar la competencia de lenguajes procedimentales, particularmente C++ • Queda como tecnología de nicho para sistemas basados en reglas, cálculos de riesgo crediticio, diagnósticos varios

  34. Conexionismo

  35. Problema no tratable analíticamente • ¿Cuántos grupos de objetos hay?

  36. Otro más Fotografía de R. C. James, 1970s

  37. Otro

  38. Procesos diversos • El cerebro trabaja en el rango de los milisegundos (10-3) y las computadoras en el orden de los nanosegundos (10-9). • Sin embargo, el cerebro reconoce formas y patrones mucho más eficientemente. • No es posible que lo haga mediante muchísimos procesos unitarios y secuenciales: no habría suficiente tiempo. • Trabajos mucho más sencillos (calcular) le insumen tiempos comparativamente enormes.

  39. Redes neuronales(Presentación separada)

  40. Conexionismo • Redes de McCulloch – Pitts (1943) • Neuronas como puertas lógicas • Pesos: sinapsis excitativas, s. inhibitorias • Capacidad de computación universal • Máquina de lectura para ciegos, percepción gestáltica • Von Neumann, Winograd • Redundancia en redes de McC-P para tolerancia a errores • Sinapsis de Hebb (1949) • Basado en Ramón y Cajal • Modelo distribuido (hologramático) • Aprendizaje: redes neuronales adaptativas (McKay, Uttley, 1950) • Reconocimiento de patrones

  41. Conexionismo • Perceptrones (Frank Rosenblatt) • Entrenamiento para distinción de patrones • Unidades sensoriales y motoras • Aumento o disminución de pesos (conductismo) • Seymour Papert / Marvin Minsky (1969) • Distinción entre T y C, con rotación etc • No pueden resolver XOR y funciones lógicas que requierenmás alto nivel de tipificación

  42. Modelos ulteriores • Redes de Hopfield • Spin glass: Problemas de optimización, vendedor ambulante (simulación de templado, AG, etc) – Atrapadas en configuraciones metaestables • Máquinas de Boltzmann • Múltiples capas • Propagación hacia atrás • Kohonen: entrenamiento no asistido • Resolución XOR, T/C • NetTalk: lee y habla inglés • Redes amo-esclavo, filtros de Gabor • Modelos mixtos: AARON

  43. Situación actual • Situación incierta de IA fuerte • Sentido común: Estructuras, templates, frames, scripts, mapas cognitivos • Dreyfus: What computers can’t do (Flores, Heidegger) • 1996: Deep Blue vence a Kasparov • Divisiones en el paradigma conexionista (Pinker) • Conexionismo eliminativo: sin semántica ni nivel simbólico • Conexionismo implementacional:representación sub-simbólica • Conexionismo revisionista de procesamiento de símbolos (Escuela de San Diego)

  44. Desarrollos ulteriores • 1980s: Resurgimiento de la neurociencia con PDP en Escuela de San Diego • 1987: Cognición situada, modelos ecológicos • 1990: Dinámica no lineal • 1990-2000: Cognición distribuida, Modelos basados en agentes

  45. Estado de la cuestión • Modelo de Izhikovich, igual dimensión que el cerebro 1010 neuronas. • Un segundo de simulación insume 50 días en un cluster Beowulf de 27 procesadores de 3 GHz • El modelo exhibe ritmos alpha y gamma y otros fenómenos de interés.

  46. Aplicaciones en Antropología • Discursivas: Reflexiones de D’Andrade • Los antropólogos suelen hablar de reglas. • Lo que hay en realidad son conductas. • En muchos casos que se describen como seguimiento de reglas, puede no haberlas dentro del actor – Sólo redes de ciertas clases. • También hay un paralelismo con la “respuesta automática” versus la no-automática, de carácter simbólico. • Gran parte del aprendizaje cultural probablemente sea afin al aprendizaje coneccionista.

More Related