770 likes | 1.34k Views
Ciencia cognitiva. Carlos Reynoso UNIVERSIDAD DE BUENOS AIRES carlosreynoso@filo.uba.ar billyreyno@hotmail.com. Comprender la mente puede ser menos complicado de lo que nuestra vanidad espera o de lo que nuestro intelecto teme. - Rodolfo Llinás, 1986. Objetivos.
E N D
Ciencia cognitiva Carlos ReynosoUNIVERSIDAD DE BUENOS AIREScarlosreynoso@filo.uba.ar billyreyno@hotmail.com
Comprender la mente puede ser menos complicado de lo que nuestra vanidad espera o de lo que nuestro intelecto teme. - Rodolfo Llinás, 1986 Objetivos • Elaborar una presentación de la disciplina desde el punto de vista antropológico. • Mostrar formas complejas de entendimiento (posible) entre antropología y otras disciplinas • Poner de manifiesto las limitaciones inherentes a las concepciones antropológicas de los conceptos cognitivos esenciales • Conocimiento, símbolo, representación, mente, aprendizaje, lógica, pensamiento, imagen, inteligencia, memoria
Agenda • Historia de la ciencia cognitiva • Psicología cognitiva* • Inteligencia artificial, GOFAI • Inteligencia artificial, conexionismo • Antropología cognitiva • Conclusiones • Trabajos pendientes & Referencias
Definiciones • “Cognición” – Se puede encontrar a fines del siglo XIX (Wilhelm Wundt, William James) • Ciencia cognitiva = estudio de la mente o de la inteligencia • Reemplazó a la idea de Inteligencia Artificial • Modelo de caja gris – Restitución de la mente • Investigación multidisciplinaria: psicología, neurociencia, antropología, filosofía, lingüística, computación científica, biología
La “revolución cognitiva” • MIT, 11 de setiembre de 1956 (11 al 13) • Miller, Mágico número siete • Newell y Simon – Logic Theorist, GPS • Declinación (momentánea) de la neurociencia y auge de la lingüística • Chomsky – Tres modelos para la descripcióndel lenguaje • 1957: Syntactic structures • 1958: Review de Verbalbehavior de Skinner
Chomsky sobre Skinner • Cuestionamiento de la idea de que el lenguaje se puede insuflar via entrenamiento animal • Estímulo – Refuerzo – Privación • Predecir y controlar comportamiento verbal manipulando variables de entorno. • No habría restricciones de especie. • La contribución interna del hablante sería poco esencial.
La revolución… • Chomsky (28 años a esa fecha) • No es viable un modelo de producción lingüística derivado de la teoría de la información de Shannon. • Base de su concepción de lenguajes formales y sus autómatas. • Base de los métodos formales en computación y de los compiladores de lenguajes formales. • Primer modelo “matemático” del lenguaje. • Segunda (o tercera) revolución lingüística.
George Miller • The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information(1956) • Sólo se aplica a juicios o estímulos unidimensionales, no a recordar (por ejemplo) caras o lugares. • Capacidad de canal equivalente a 2.5 bits (unas 6 alternativas) – Se aplica a percepción, procesamiento y memoria. • “En realidad no hay ninguna magia en relación con tantos otros 7s; sólo una perniciosa coincidencia”. • Entre las coincidencias incluye las 7 notas de la escala musical, lo que sin duda es un error suyo. • No está demostrado que se aplique a la memoria a corto plazo. • Se ha convertido en una especie de mito urbano. • Elizabeth Rice (1980) – Cultural schemata.
Anthony Wallace • “On being just complicated enough”, 1964 [disp] • Aunque el tamaño y complejidad de las sociedades varía enormemente, la dimensión del sistema de términos de parentesco no lo hace • Para transformar el número de términos en una cifra que sirva para medir complejidad, computó log2 1/L • Número de elecciones binarias necesario para producir un sistema de tamaño L
Anthony Wallace • Todos los sistemas taxonómicos se pueden acomodar en un espacio que requiere 6 dimensiones binarias o menos
Anthony Wallace • 26 = 64 • “Conjuntos contrastantes” = espacios taxonómicos, o sistemas institucionalizados de discriminación • Formas verbales en inglés, 61; 64 cuadrados en un tablero de ajedrez, menos de 64 términos numéricos básicos; menos de 64 rangos militares, etcétera
Otros hitos • 1960 – George Sperling – Memoria icónica • 1967 – Ulric Neisser – Psicología cognitiva • Modelo computacional para memoria, razonamiento, percepción • 1969 – Modelos de la función cerebelar y de la visión de David Marr • 1970s – Journals: Cognitive Psychology, Cognition, Memory & Cognition
David Marr [1945-1980] • Fundador de la neurociencia computacional • Modelos de procesamiento visual: • Fisiología +IA+psicología • Entender el cerebro presupone entender los problemas que se le plantean y las soluciones que encuentra • Tres niveles de análisis: • El problema que la visión enfrenta (computacional) • La estrategia que puede usarse (algorítmico) • Cómo se realiza de hecho la actividad neuronal (implementacional)
David Marr [1945-1980] • Proceso visual en tres etapas: • Esbozo primitivo (primal sketch), extrayendo rasgos de componentes fundamentales de la escena (bordes, regiones, etc) • Un esbozo de 2,5 dimensiones. Se reconocen sombras, texturas, etc • Un modelo continuo en 3 dimensiones • Dinámica de aprendizaje/optimización, que anticipa los métodos de los algoritmos naturales**
David Marr [1945-1980] • “Ley del cuadrado inverso” para la investigación científica: • El valor de un estudio varía inversamente con el cuadrado de su generalidad • Avances en investigación de visión binocular • El libro casi póstumo de Marr es reconocido como la Biblia del MIT de visión de computadora. • Colin Ware – Information visualization (2004)* • Mallot & Allen – Computational vision (2004) • Uttal – Computational modeling of vision (1999)
Relaciones interdisciplinarias © Howard Gardner, La nueva ciencia de la mente
Tres modelos contrapuestos • IA “fuerte” - MIT • Artificial • Ligada a computadoras, lógica • Modelo mecánico • Deducción: cálculo de predicados • Newell-Simon, Russell/Whitehead, Frege • Atomismo, racionalismo • Conexionismo – Redes neuronales • Natural • Simulación del cerebro – The astonishing hypothesis (Francis Crick) • Aprendizaje, inducción • Modelo estadístico, caja negra
Tres modelos contrapuestos • Neurociencia computacional* • Modelos computacionales del cerebro o de diversos componentes funcionales • Basado en intuiciones de Andrew Huxley, Alan Hodgkin y David Marr
Inteligencia artificial • Dificultad de definir consensuadamente “Inteligencia” • Propuesta de Alan Turing • La inteligencia como medida del IQ (G) • Howard Gardner – Teoría de las múltiples inteligencias • La curva de campana (Charles Murray, Richard Herrnstein - 1994) • Discutido por Stephen Jay Gould en The mismeasure of man (nueva edición, 1996) • Todavía no hay definiciones aceptadas • La polémica es hoy explosiva y la antropología no tiene gran cosa que aportar al respecto, pues carece de método comparativo y de capacidad experimental. (Cole & Gay)
La prueba de Turing • ¿Puede una máquina ser inteligente? • Sí, si inteligencia se define como la capacidad de engañar a un interlocutor humano. • Es posible hacerlo durante un corto tiempo. • Ejemplos: • “George” – Página de Simon Laven – http://www.simonlaven.com • The Postmodern Generator, http://www.elsewhere.org/pomo • A veces se confunde la Prueba de Turing con la idea de que el cerebro funciona como una Máquina de Turing.
SHRDLU • Terry Winograd, 1970
Supuestos comunes a la IA • La cognición humana comparte características con el procesamiento de información de las computadoras. • Ese procesamiento es secuencial y serial. • Consiste en operaciones discretas. • La memoria es independiente del procesador. • Propósito general • Las operaciones se pueden describir en términos de reglas como las que caracterizan a los lenguajes de programación.
Allen Newell y Herbert Simon • Logic Theorist, 1956 • Teoremas de Principia Mathematica • General Problem Solver, 1958 • SOAR, hasta 1990s – Arquitectura general para sistemas inteligentes, todavía activa
Inteligencia Artificial ppd • John McCarthy, 1958 • Propuso utilizar cálculo de predicados para la representación del conocimiento. • Los programas deberían ser declarativos, no imperativos (o procedimentales). • También inventó el lenguaje Lisp. • Procesamiento de listas recursivas. • Prefiguró los Application Service Providers en 1960. • Obviamente no prosperó. • A principios de los 90s reconoció que se la había ido un poco la mano.
GOFAI • John Haugeland, 1985 (Artificial intelligence, the very idea) – Good Old Fashioned Artificial Intelligence. • N-S - Sistema [físico] de procesamiento de símbolos. • Hechos y reglas. • Modelos de programación lógica. • Prolog, cláusulas de Horn – Alain Colmerauer y Robert Kowalski, 1972 • Algoritmo de resolución de Robinson • Cálculo de predicados de primer orden. • Cuantificación universal.
Programación lógica • PROLOG • Hechos, reglas, preguntas, hipótesis • Reglas: mortal(X) :- hombre (X). • Hechos: hombre(socrates). • Pregunta extensional (en consulta): mortal(X). • Hipótesis: mortal(socrates). • Las hipótesis tienen la misma estructura de los hechos. • Las únicas respuestas a una hipótesis tienen que ser si o no.
GOFAI - 2 • Sistemas expertos • Base de datos • Máquina de inferencia • Inferencia clínica • Mycin, Neo-Mycin, Pip, Internist, Dendral, SHRDLU • AGENI2 (Reynoso) • Limitaciones del modelo simbólico • No todo conocimiento puede representarse en términos de proposiciones o predicados • Reconocimiento de patrones • Identificación de instancias diferentes de un mismo objeto (firmas, huellas digitales) • Intolerancia a errores o destrucción parcial
Inteligencia artificial • Aplicaciones antropológicas de IA simbólica • Sistemas expertos de diagnóstico clasificatorio • Modelos axiomáticos de la cultura • Matrimonio Kariera (Kemeny-Snell-Thompson) • Gramáticas culturales • Benjamin Colby – Cuentos Ixil • Análisis funcional del relato (Vladimir Propp) • Lógicas alternativas • Lógica temporal • Lógica no-monotónica • Logica polivalente (Lukasiewicz) • Lógica difusa (Lotfi Zadeh)
Limitaciones técnicas de GOFAI • Sólo buena para campos conocidos de manera analítica y exhaustiva. • Poca tolerancia a errores. • Representación sintáctica, no realmente semántica. • Reconocimiento de patrones prácticamente imposible. • Carente de capacidad de recuperación ante destrucción parcial. • No muy eficiente para implementar aprendizaje. • El aprendizaje es mayormente inducción.
Descrédito de la IA fuerte • Promesas no cumplidas – Invierno de la IA desde 1988 • Sistemas expertos exitosos, pero sólo útiles para tareas de diagnóstico • Varios SE embebidos en sistemas operativos • Fracaso histórico del programa japonés de máquinas de Quinta Generación • Proyección original de 5 mil millones de dólares • Prolog no puso soportar la competencia de lenguajes procedimentales, particularmente C++ • Queda como tecnología de nicho para sistemas basados en reglas, cálculos de riesgo crediticio, diagnósticos varios
Problema no tratable analíticamente • ¿Cuántos grupos de objetos hay?
Otro más Fotografía de R. C. James, 1970s
Procesos diversos • El cerebro trabaja en el rango de los milisegundos (10-3) y las computadoras en el orden de los nanosegundos (10-9). • Sin embargo, el cerebro reconoce formas y patrones mucho más eficientemente. • No es posible que lo haga mediante muchísimos procesos unitarios y secuenciales: no habría suficiente tiempo. • Trabajos mucho más sencillos (calcular) le insumen tiempos comparativamente enormes.
Conexionismo • Redes de McCulloch – Pitts (1943) • Neuronas como puertas lógicas • Pesos: sinapsis excitativas, s. inhibitorias • Capacidad de computación universal • Máquina de lectura para ciegos, percepción gestáltica • Von Neumann, Winograd • Redundancia en redes de McC-P para tolerancia a errores • Sinapsis de Hebb (1949) • Basado en Ramón y Cajal • Modelo distribuido (hologramático) • Aprendizaje: redes neuronales adaptativas (McKay, Uttley, 1950) • Reconocimiento de patrones
Conexionismo • Perceptrones (Frank Rosenblatt) • Entrenamiento para distinción de patrones • Unidades sensoriales y motoras • Aumento o disminución de pesos (conductismo) • Seymour Papert / Marvin Minsky (1969) • Distinción entre T y C, con rotación etc • No pueden resolver XOR y funciones lógicas que requierenmás alto nivel de tipificación
Modelos ulteriores • Redes de Hopfield • Spin glass: Problemas de optimización, vendedor ambulante (simulación de templado, AG, etc) – Atrapadas en configuraciones metaestables • Máquinas de Boltzmann • Múltiples capas • Propagación hacia atrás • Kohonen: entrenamiento no asistido • Resolución XOR, T/C • NetTalk: lee y habla inglés • Redes amo-esclavo, filtros de Gabor • Modelos mixtos: AARON
Situación actual • Situación incierta de IA fuerte • Sentido común: Estructuras, templates, frames, scripts, mapas cognitivos • Dreyfus: What computers can’t do (Flores, Heidegger) • 1996: Deep Blue vence a Kasparov • Divisiones en el paradigma conexionista (Pinker) • Conexionismo eliminativo: sin semántica ni nivel simbólico • Conexionismo implementacional:representación sub-simbólica • Conexionismo revisionista de procesamiento de símbolos (Escuela de San Diego)
Desarrollos ulteriores • 1980s: Resurgimiento de la neurociencia con PDP en Escuela de San Diego • 1987: Cognición situada, modelos ecológicos • 1990: Dinámica no lineal • 1990-2000: Cognición distribuida, Modelos basados en agentes
Estado de la cuestión • Modelo de Izhikovich, igual dimensión que el cerebro 1010 neuronas. • Un segundo de simulación insume 50 días en un cluster Beowulf de 27 procesadores de 3 GHz • El modelo exhibe ritmos alpha y gamma y otros fenómenos de interés.
Aplicaciones en Antropología • Discursivas: Reflexiones de D’Andrade • Los antropólogos suelen hablar de reglas. • Lo que hay en realidad son conductas. • En muchos casos que se describen como seguimiento de reglas, puede no haberlas dentro del actor – Sólo redes de ciertas clases. • También hay un paralelismo con la “respuesta automática” versus la no-automática, de carácter simbólico. • Gran parte del aprendizaje cultural probablemente sea afin al aprendizaje coneccionista.