1 / 28

Información

Información. Pontificia Universidad Católica del Perú. Eduardo M assoni. Entropia Termodinamica S. L eyes de la Termodinámica. Primera Ley. Conservación de la Energía. Segunda Ley. Entropía del Universo siempre crece. Tercera Ley. No se puede Alcanzar el cero Absoluto.

warner
Download Presentation

Información

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Información Pontificia Universidad Católica del Perú Eduardo Massoni

  2. EntropiaTermodinamica S

  3. Leyes de la Termodinámica Primera Ley Conservación de la Energía Segunda Ley Entropía del Universo siempre crece Tercera Ley No se puede Alcanzar el cero Absoluto

  4. Ciclo de Carnot Carnot Isotermico Eficiencia Adiabatico

  5. Carnot: “Nadie Le Gana A Mi Motor” Motor reversible Motor Refrigerador C C C M 2C

  6. Carnot: “Nadie Le Gana A Mi Motor” Un motor reversible que trabaja a dos temperaturas tiene la misma eficiencia que un motor de carnot Postulado Es imposible un proceso cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpo de menor temperatura a otro de mayor temperatura.Enunciado de Clausius M 2C

  7. Postulado Es imposible todo proceso cíclico cuyo único resultado sea la absorción de energía en forma de calor procedente de un foco térmico (o reservorio o depósito térmico), y la conversión de toda ésta energía en forma de calor en energía en forma de trabajo».Enunciado de Kelvin-Planck.

  8. Hay una cantidad asocianda al sistema que llamaremos S tal que : Para el ciclo de Carnot Para cualquier ciclo cerrado el cambio de entropia S es nulo S es una funcion de estado

  9. Segunda Ley Universo es un sistema cerrado S2 S3 S1 T1 T1 Q Q T2 T2 Procesos que no aumentan la entropia del universo no son posibles Postulado Es imposible un proceso cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpo de menor temperatura a otro de mayor temperatura.Enunciado de Clausius

  10. ¿ Que es esta variable S ? Boltzmann I D W= # de formas 1) IIIIIIIIIIIIIII W=1 2) IIIIIIDIIIIIIII W=N I D 3) IDIDIDIDIDIDID W=2N I D

  11. En este sistema aislado, cualquier configuracion o estado tiene la misma probabilidad Segunda Ley • La entropia mide el desorden medido • como el numero de estados posibles • Procesos en el universo aumentan la entropia I D

  12. La Información es Fisica

  13. Principio de Landauer (1961) El calor necesario para borrar un bit de informacion es:

  14. La informacion se guarda en sistemas fisicos, por lo el manejo de informacion se rige bajo leyes fisicas Demonio de Maxwell ¿Entropia decrece?

  15. NO Universo La entropia total del sistema +universo crece!!

  16. Cuantificando la informacion

  17. ¿Como cuantificamos la informacion? Teoria de la Informacion ( 1948) Lord Shannon A mathematicaltheory of communication Fuente Receptor Canal Codificador Decodificador Codificador comprime la informacion y codifica la transmision Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para mandar un mensaje

  18. ¿Como cuantificamos la informacion? Teoria de la Informacion ( 1948) Lord Shannon A mathematicaltheory of communication Fuente Receptor Canal Codificador Decodificador Codificador comprime la informacion y codifica la transmision Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para manadr un mensaje

  19. Redundancia “ Si hay redundancia podemos comprimir un mensaje” “La redundancia es buena en el sentido que permite corregir errores” “ El idioma Ingles tiene un factor de compresion 2” “ Mientras mayor redundancia , Mayor compresion y menor cantidad de recursos paraenviar la informacion” “ Mayor redundancia Menos informacion”

  20. Ejemplo Central de apuestas Hipodromo Codificador ¿Para ocho caballos necesitamos 3 bits? # promedio de bits para mandar resultados en un año

  21. Con esta codificacion el numero promedio de bits se puede escribir como: Con esta codificacion el numero promedio de bits se puede escribir como:

  22. AL numero promedio de bits necesario para mandar la informacion esta dada por Entropia de Shannon Eventos menos frecuentes necesitan mas bits Eventos mas frecuentes necesitan menos bits

  23. ¿Como interpretamos la informacion en un evento? Si consideramos la variable aleatoria Con probabilidades Diremos que la cantidad de informacion en el evento “i” estara dado por: Unidades Bits o Nats Que es consistente con:

  24. Sourcecodetheorembyshannon El maximo de compresion posible esta dado por El maximo de compresion mide la cantidad de informacion

  25. ¿Hay alguna Relacion entre la entropia S y H? Como en el estado inicial y final de equilibrio termico la probabilidad de cada estado es 1/W Informacion del universo crece!!!

  26. InformacionCuantica

  27. Entropia de Von Neumann • Q uantum bits • Enmarañamiento • Teleportacion • Criptografiacuantica • Decoherencia • Informacion accesible Quantum Information es mas complicada

  28. Conclusiones Von Newmann a Shannon “Debes llamarlo entropía por dos razones. En primer lugar tu función de incertidumbre ha sido usada en mecánica estadística bajo ese nombre, por tanto, ya tiene un nombre. En segundo lugar, y más importante, nadie sabe realmente qué es la entropía, por tanto, en un debate siempre tendrás esa ventaja. Las tres leyes de la termodinámica : 1) No puedes ganar. 2) No puedes empatar. 3) No puedes abandonar el juego. Gracias!!

More Related