720 likes | 1.02k Views
Les constantes fondamentales ou l’irréductible discours du Tout et de ses parties. http://www.open-science.net. 1ère partie. Une représentation de la Nature. Ping - pong entre théorie et expérience.
E N D
Les constantes fondamentales ou l’irréductible discours du Tout et de ses parties http://www.open-science.net
1ère partie • Une représentation de la Nature
Ping - pong entre théorie et expérience • La nature est descriptible mathématiquement car elle possède des invariances mais ces équations sont en général non résolvables. • Lorsqu’elles le sont il faut souvent appliquer des principes de sélection basés sur des symétries (exemple les orbitales électroniques des atomes) • On peut dans des cas particuliers: • - justifier d’approximations pour calculer exactement des solutions approchées (ex: les propriétés de l’électron libre par l’électrodynamique quantique, la gravitation pour les masses faibles…) • - calculer numériquement des valeurs par des méthodes lentes de convergence(ex: les solutions des orbitales électroniques dans le cas d’atomes légers) • -parfois uniquement connaître l’existence de solutions (ex les solutions des atomes lourds) Le principe de progression est: • la mise en évidence d’exception expérimentale en regard d’un modèle en vu de le refonder pour étendre son domaine d’application(la physique quantique, la relativité, les modèles stellaires …) • la découverture de régularités cachés (présence systématique de trous noirs centraux dans les modèle de formation galactiques, lien entre glaciations et orbite/inclinaison terrestre..) • la découverte d’éléments intermédiaires ou des formes dérivées de formes connues en vu de réunir des modèles partiels dans un modèle plus global (tentative d’extension des modèles actuels de particules)
Que cherche t-on à savoir ? Tout phénomène physique n’est connu qu’au travers de sa mesure. Toute mesure est caractérisée par une résolution (exemple longueur d’onde de la lumière) et une imprécision sur la durée de validité du résultat lié au degré de perturbation de l’objet observé. • Une grandeur physique se caractérise par une mesure directe ou une combinaison • - d’une longueur • - d’une durée • - d’une masse D’où 3 unités résultant de la combinaison de 3 constantes
Ce qui caractérise le mouvement est une grandeur dérivée: l’impulsion (produit masse x vitesse) Toute réduction de masse (décomposition nucléaire par fission, atomique par ionisation, moléculaire par une réaction chimique) convertit l’énergie de couplage en impulsion. Le processus est réversible (fusion, recombinaison,association chimique). Entre ces deux extrêmes l’impulsion effective se conserve par interaction (la partie extractible se réduit car une partie se perd en micro mouvement ou chaleur ou désordre) Ce qui caractérise la trajectoire est une grandeur dérivée: l’action (sommation de l’impulsion sur tous les éléments de trajectoires). Maupertuis : trajectoire naturelle= action minimale (principe de moindre action) Feynmann trajectoire apparente: combinaison d’une infinité de chemins possibles (la plupart compensant leur effet): le principe de moindre action est statistique. Vision de Maupertuis Vision de Feynmann
Au niveau fondamental les constituants de la matière et les vecteurs des forces sont quasi ponctuels (quantum/quanta). • Leur comportement ne peut par définition remonter à une structure interne, les propriétés mesurées sont la somme de chemins potentiels équivalent d’un comportement ondulatoire. • La nature possède des propriétés invariantes d’où des équations de conservation • Invariance des propriétés vis-à-vis de l’origine des temps: conservation de l’énergie • Invariance des propriétés vis-à-vis de l’origine spatiale: conservation de l’impulsion • Invariance des propriétés vis-à-vis de l’origine de l’orientation: conservation du moment cinétique (produit de l’impulsion avec le rayon entre le point d’application et l’origine). • Invariance dans des processus de transformation: conservation de nombres quantiques ( baryonique, isospin,spin,couleur, charme, étrangeté).
La nature possède aussi des propriétés très générales de masquage : • - impossibilité de mettre en évidence par détection directe les particules échangées lors d’interaction • - impossibilité de détecter des quarks isolés • - d’accéder à une information au delà de l’horizon d’un trou noir • - de perdre définitivement une information par delà un horizon. • - d’acquérir une information sur un élément sans perdre plus d’information sur le reste du système (la loi statistique de dispersion conduit à un accroissement global du désordre)
Niveau microscopique h: la constante d’Action minimale La connaissance du présent s’oppose à celle du futur Futur Interaction de grande résolution Interaction de faible résolution Précision spatiale
Photon sonde incidente Rediffusion Secondaire de direction aléatoire On sait que la particule est dans la boîte de résolution • Quand une sonde est diffusée par une cible , la localisation spatiale de la cible est précisée dans un axe. Elle est contrainte grâce à l’impulsion orientée de la sonde mais l’énergie associé n’est qu’une valeur scalaire sans direction. • En cas de diffusion , l’énergie est redistribuée entre la cible et la particule sonderediffusée selon une direction non contrainte ce qui induit une perturbation de la trajectoire de la cible d’autant plus grande que l’énergie à reconvertir est grande et que la résolution spatiale est précise. • La précision de la loi conservation de l’impulsion dépend de la résolution spatiale. • la précision de la loi conservation de l’énergie dépend de la résolution temporelle car la mesure de la variation d’énergie cinétique est reliée à cette variation d’impulsion par la célérité de la propagation de la sonde. A moins d’une nouvelle expérience la position postérieure est moins connue
Photon Diffusé= flash Une lumière assez précise pour éclairer un seul des trous et intense: Tous les électrons sont ponctuels et ils sont tous flashés Photon incident Une lumière assez précise mais pas assez intense: pas assez de photons les électrons flashés sont ponctuels les électrons non flashés sont comme des ondes Photon Diffusé= flash Une lumière assez intense mais pas assez précise: zut! le flash éclaire les deux trous Photon incident Cas limite: pas de lumière intermédiaire Les trajectoires possibles des électrons simulent une onde et forment des franges
Les quanta sont associées à des chemins potentiels dont la combinaison forme l’état libre mais dont une mesure constitue un forçage dans un état précis (une actualisation). • En ce sens la notion d’espace et de temps est bien émergeante car liée à l’interaction entre l’objet et l’expérience. Cette émergence est ponctuelle dans l’expérience de Young mais est liée dans notre expérience du monde à l’interaction continuelle d’une quasi infinité de corps. Cette localisation est appelée aussi décohérence entre les états potentiels des particules. • Si l’ expérience ne permet pas de discerner les chemins (l’action apportée est inférieure à l’action minimale car la longueur d’onde de résolution est trop grande), les particules ont des comportements statistiques qui conduisent à une onde de longueur apparente =h/impulsion mesurée. • La particule apparente est la combinaison de particules qui suivent des chemins virtuels. • La dispersion spatiale est alors caractérisée par deux niveaux d’imprécision: • - la précision ou la résolution sur chacun des chemins(le diamètre du trou) • - les interférences entre plusieurs trajectoires possiblesséparées macroscopiquement (la multiplicité des trous). • Si l’expérience permet de discerner les chemins(apport au moins de l’action minimale) les particules possèdent chacune une trajectoire propre; il n’y a plus combinaison de trajectoires entre les trous (il demeure une dispersion spatiale car en zoomant sur chaque trou il y a encore une infinité de chemins).
Le niveau microscopique est caractérisée par la valeur d’une action élémentaire qui limite la caractérisation à l’instant de la mesure. • Les grandeurs caractérisant un potentiel de mouvement (impulsion, énergie) sont duales des grandeurs de position dans l’espace et dans le temps: tout gain de précision sur l’une entache l’autre d’une imprécision accrue.Elles transmettent une information cohérente et sont limitées dans leur précision et célérité statistique. • Temps et espace n’ont pas d’orientation absolue, ni même précision absolue. Déterminant l’état présent, leur précision s’oppose à la connaissance de l’état futur (énergie, quantité de mouvement) • Il n’y a pas de localisation à l’état libre, la matière apparente dans le temps de l’observateur est la superposition des états potentiels de la matière dans le vide qui s’expriment comme des transitions ordonnées sans écoulement de temps. Position effective donc Vitesse, y compris la célérité des ondes, sont des propriétés statistiques.
Les grandeurs exactes sont des nombres quantiques Exemple dans un atome: le moment de rotation intrinsèque de l’électron (spin) Le moment orbital autour du noyau La projection du moment magnétique La répartition de ces grandeurs n’est contrainte par aucun facteur intrinsèque et donc statistique. Ils ne caractérisent pas un mouvement macroscopique (vitesse de propagation indéfinissable dans les expériences de couplage de grandeurs quantiques indépendant de la distance (non-localité ). La probabilité de présence dans un système de particules est fournie par la densité d’une fonction d’onde, mais cette onde possède autant de dimensions intrinsèques que de degrés de liberté , c’est-à-dire que de particules.
L’état de l’art et ses paramètres libres Le modèle microscopiquequantique Le modèle standarddécrit les constituants de la matière, source des champs, et les particules vectrices de force. Les mouvements des quanta de matière sont liés à leur couplage aux champs et à son intensité (=nombre d’interaction entre quanta de matière et de forces) La stabilité de la matière est possible par l’attribution à chaque élément d’état quantique spécifique (exclusion) Les forces peuvent avoir une intensité variable par l’attribution d’un état à un nombre quelconque de quanta vecteurs et la formation d’onde cohérente (grégarité). Les quantas de matière s’apparient aussi pour former des ensembles dotés de propriétés collectives comme une onde (condensat de Bose, superconduction, superfluidité). La force électrofaibleest l’association (pas la fusion) des forces électromagnétiques vectorisé par le photon et « nucléaire » faible assurant la désintégration et des recombinaisons entre particules vectorisée par 3 bosons - la force nucléaire forterelie les quarks des particules du noyau vectorisé par 8 gluons eux-mêmes sensibles à la force: conséquence la force s’accroît avec la distance et induit le confinement des quarks. Le modèle exclut la gravité propriété émergeante donc géométrisée, décrite dans le continuum relativiste et dont les discontinuités sont à l’étude mais dont la quantification microscopique directe conduit à des infinis.
Dans ce modèle standard 25 paramètres ne sont pas contraints par la théorie mais par l’expérience ; par abus de langage ils sont dits libres. • Les paramètres de masses des particules : • - 6 masses pour les 3 couples de quarks • - 3 masses pour les leptons • - 2 masses pour les bosons W et Z de l’interaction faible • - 1 masse pour un boson de Higgs (non encore observée mais nécessaire pour la brisure électromagnétique, interaction faible) • - éventuellement 3 masses pour les neutrinos • et les constantes de couplage des interactions • - 1 constante de couplage électromagnétique • - 1 constante de couplage de la force forte • - 4 constantes de couplages libres entre les quarks et le boson W de l’interaction faible • - éventuellement 4 constantes de couplage libres entre les neutrinos et le boson de Higgs. • L’extension super symétrique du standard envisage l’équivalence formelle entre quanta de matière et quanta de forces mais ne réduit pas le nombre de paramètres libres.
Gravitation à grande échelle Le modèle macroscopique de la relativité générale décrit la gravitation comme un effet géométrique de contraction d’un espace vide: • - par des sources localisées • - par les ondes gravitationnelles non localisées liées aux anisotropies des corps en mouvement. • En physique classique, le mouvement accéléré était du à une force dont les sources étaient les masses sans qu’interviennent leurs mouvements et un délai de propagation. • En relativité, les corps libres accélèrent selon le profil imposé. • Ce n’est pas la masse en soi ni son mouvement (l’impulsion) qui contracte l’espace mais un mouvement au second ordre: un flux d’énergie – impulsion dans le mouvement relatif du corps et des sources. • Ce flux courbe l’espace et induit consécutivement une variation des délais de propagation. • Il trouve sa source dans l’énergie associée aux masses propres , à leurs impulsions et aux ondes (électromagnétique, gravitationnels) de célérité invariante mais dotés d’une fréquence relative au mouvement et à la position de l’observateur.
Masse inerte= masse attractive : gravitation= géométrie Gravité - accélération=0 Référentiel inertiel lumière Masse inerte sans gravitation Pas de gravitation: pas de courbure Référentiel inertiel en chute libre masse grave * gravité -masse inertielle * accélération=0 Lumière courbe La Gravitation n'est qu'une accélération suivant la courbure vu d’un référentiel contraint L' accélération n'est qu'une gravitation sans masse attractive vu d’un référent contraint lumière gravité =0 accélération =poids Masse * gravité= Poids accélération =0
Mouvement gravitation (pesanteur = gravitation : Newton) =Mouvement d’une masse inertielle d'un référentiel libre (mouvement nul = mouv. droit :Galilée) car gravitation non perceptible dans un repère inertiel en accélération libre. Principe d'équivalence faible :Gravitation = accélération Les autres Interactions ne dépendent pas du lieu de l'expérience,de l'instant,de la vitesse du référentiel: elles s'expriment dans un référentiel inertiel donc dans espace plat tangent à espace courbe. Espace-temps courbe +principe faible=princ. équivalence fort gravitation=courbure (exemple relativité générale) Gravitation est l’expression nécessaire de la symétrie entre un référentiel libre loin de toute masse et un référentiel soumis à la rupture de son mouvement inertiel. Mouvement naturel: accélération dans l'espace-temps courbe: le média apparaît déformé par les masses et un corps en chute libre suit une géodésique, c'est-à-dire le chemin de distance minimale entre 2 points. Il n’y a pas interaction directe entre corps mais déformation de la métrique par la présence d’un corps et c’est la déformation à grande échelle de cette métrique qui infléchit la trajectoire des autres corps.
Sur une distance élémentaire, on pose l‘équivalence entre deux mouvements : -une chute dans un puits de gravité créé par des sources de champ -une accélération dans un espace vide Cette équivalence est due: - à l’égalité entre la masse grave et la masse inertielle résistant à l’accélération - à l’indépendance du facteur G de gravitation à la nature et aux mouvements des corps donc à la constance de G. La force d’attraction est remplacée par une accélération qui équivaut à un rapport variable des intervalles d’espace et de temps dépendant de la distance à la source de champ.Tout mouvement libre est gouverné non pas par des forces externes mais par le parcours d’une métrique dont le rapport longueur/durée dépend de la position dans le puits de gravité. La longueur classique est remplacée par un élément invariant de métrique; quel que soit le changement de repère, le mouvement considéré laissera inchangé cet invariant ds² Le mouvement rectiligne d’un espace plat minimisant la longueur de cette métrique est un mouvement orbital dans un espace courbe chargée de masse. Mais il n’y a plus de forces donc le mouvement libre accéléré est perçu, à l’intérieur du corps supposé clos, comme un mouvement inertiel à vitesse fixe, cohérent avec l’équivalence formelle à un espace vide. Le modèle ne possède qu’un seul paramètre libre, la constante cosmologique, pour exprimer le tenseur de courbure le plus général qui à l’infini équivaut à l’espace plat sans gravitation, ne privilégie aucune direction spatiale et intègre la conservation de l’énergie.
Niveau macroscopique (système sans complexité) • Une notion duale émergeante: la trajectoires des corps et la propagation d’ondes cohérentes. Sa mesure suppose une métrique appliquée à une topologie de l’espace. • Cette métrique est définie par un intervalle élémentaire ds² qui: • - relie les variations dans l’espace et dans le temps • - est invariant par changement de repère. • Un milieu vide, et donc la métrique, est modifié par l’immersion de corps qui déforme l’espace-temps. • Toute masse est convertible en impulsion (l’énergie est une notion intermédiaire). • L’inverse n’étant pas vrai; des photons de lumière ont une impulsion mais restent sans masse. A ce niveau de représentation macroscopique, ils forment une onde cohérente dont on dérive une pression de rayonnement, une longueur d’onde et une fréquence. • L’orientation du temps et de l’espace est fixée par l’expansion du rayon de courbure à la fois dont la valeur dépend de la densité d’énergie des différents constituants à l’intérieur de l’horizon causal et de la constante cosmologique, le seul paramètre libre.
Théories de l’organisation macroscopique • Les paramètres qui caractérisent le système sont des moyennes et donc applicable à chacune des parties en supposant un nombre infini d’éléments. • Les paramètres descriptifs sont émergeants: Température, pression, aimantation … Modèle de la complexité (algorithme complexe) La complexité d’un objet se mesure par sa complexité algorithmique qui est le plus court algorithme qui le reproduit. L’organisation de sa complexité est sa profondeur logique mesurée par le temps d’exécution de cet algorithme (son déploiement) . Cette profondeur logique ne croît que lentement lors de l’évolution d’un objet; un changement de structure par une transition de phase ne fait que déployer autrement une complexité sans rupture de valeur de la complexité organisée. Elle était précédemment cachée (le spore du champignon) ; l’état du système semble déductible de l’évolution de la combinaison de ses parties. La complexité est fonction du degré de modification de l’algorithme reproductif en regard • d’un changement d’échelle (diversité de la structuration hiérarchique) • de l’hétérogénéité du corps (diversité de la structuration spatiale) • de son évolution : un objet dynamiquement complexe peut créer par auto organisation de nouvelles structurations d’une échelle supérieure lors de sa recherche d’équilibre en regard de conflit sur des ressources (exemple : potentialité d’expression des gènes lors de la morpho génèse,). • variabilité temporelle = variabilité des algorithmes qui le reproduisent dans différentes tranches de son histoire.
Théorie des catastrophes. Il existe des lois des formes qui sont distinctes des lois de la matière. Les formes que peuvent prendre les transitions sont au nombre de 7 formes fondamentales. Cette structuration repose sur des règles mathématiques indépendantes des propriétés du substrat car elles ne nécessitent pas de construction à partir d’un niveau plus élémentaire. Les lois globales de variation des formes ne sont pas réductibles aux lois locales du comportement de la matière. Chaos déterministe: système simple macroscopique (algorithme limité) • Phénomène de bifurcation lors du franchissement de seuil • Equilibre rompu et transition vers: • - un autre équilibre parmi plusieurs solutions • - une oscillation • - l’absence de convergence vers une fonction : le chaos La transition n’est pas linéaire; une déviation microscopique est amplifiée et modifie la sortie de la transition. On parle de sensibilité aux conditions initiales Cette sensibilité dépend des paramètres du système: la loi du système est une combinaison de paramètres locaux qui décrivent le couplage du système à son milieu . Exemple: loi de croissance limitée de population xn+1=kxn (1-xn) à convergence unique ,bi oscillante ou chaotique. Ces 2 modèles introduisent, par l’introduction d’une irréversibilité, la notion d’émergence où un niveau n’est plus rétroactivement explicable par simple association de ses parties. Le débat porte sur l’aspect seulement opératoire ou formel de cette impossibilité.
Un réseau n’est pas réductible à ses parties • Les fonctionnalités exprimées de la partie ne sont pas celle de l’individu isolé car elles dépend du couplage aux autres parties; • les potentialités sont activées par ses interactions aux travers de la structure qui lie les parties entre elles. On a des rétroactions au travers des autres parties, des blocages, des saturations, des actions non linéaires (une action n’est plus la simple superposition d’actions plus réduites et l’ordre des actions importe également). • La fonction de transfert entre entrées et sorties n’est plus réductible à l’élément seul; l’essentiel est dans le nombre de connexions, leur qualité et leur degré de couplage) l’information est plus dans la structureque dans l’élément . • Concerne tout les systèmes au-delà de deux composants en interaction permanente et retardée : • - les réseaux de neurones • - le lien cerveau /soma multicanaux (système nerveux central et système périphérique) • - les N corps en interaction gravitationnels • - tous les atomes au-delà d’un électron, etc, etc… • Un ensemble complexe et structurée ne se déduirait pas de bas en haut par construction hiérarchique mais ne serait descriptible que par un modèle paramétré décrivant ses fonctions de plus haut niveau.
Modèle physique Immergée dans dimension supplémentaire (dimension de la gravitation) Espace 3D vide Chaque région de l’espace vide Peut vibrer librement dans cette dimension supplémentaire Longueur spatiale apparente D d Région déformée d/D exprime la courbure Courbure(R) = Energie (T) en relativité générale Dimension gravitation
Propagation libre en direction et célérité dans espace 3-D (mer de photons virtuels sans interactions) Vibration simple Non résonante = Existence sur 1 longueur d’onde Modèle du photon virtuel Vibration ouverte Propagation statistique suivant géodésique (droit loin de toute masse) et célérité = C dans espace 3-D (couplage entre photon réel et mer de photons virtuels) Vibration résonante = longueur d’onde conservée Modèle du photon réel Espace 3D Rayon de courbure Relié à Energie photon Par R= T (relativité générale) λ
Vibration résonante = longueur d’onde conservée Modèle de la particule réelle Espace 3D Longueur Vibration = rayon de courbure r Relié à énergie au repos Par R= T (relativité générale) λ Propagation statistique suivant géodésique en mouvement inertiel ou libre dans champ de gravité et autre direction en mouvement forcé accéléré vitesse V < C dans espace 3-D (couplage entre particule réelle et mer de particules virtuelles) pc E profondeur au repos mc² mc² Dimension gravité E²=(mc²)²+(pc)² Particule = Vibration spatiale résonante C célérité propagation interne V propagation externe
Espace 3D Repliement spatial 3D Espace occlus (trou noir) Vibration longitudinale impliquant diffusion photons en tout point de l’interface avec espace 3-D (rayonnement Hawking de surface) r R R rayon Schwarzschild
Le vide quantique possède une énergie intrinsèque liée au quantum h • Les fluctuations d'énergie influe sur la courbure et sur le champ de gravitation. • Ce champ est non linéaire;il induit des ondes gravitationnelles. Cette énergie du vide augmente les fluctuations • La géométrie entre en résonance avec le vide quantique. • Le vide est instable; son énergie se transmute en accroissement de la courbure et en expansion de l'espace-temps. • Les fluctuations s'amplifient et deviennent permanentes; les particules réelles sont créées. • L'univers est une fluctuation permanente du vide. • Le vide est le réservoir potentiel de l'univers.
2ème partie • Des constantes, • leurs rôles, • leurs significations • leurs contraintes sur la Nature
Comment reconnaît-on une constante fondamentale? • On distingue : • - les constantes fondamentales dimensionnées et invariantes en tout point en tout lieu et donc invariantes par changement de repère. Ces constantes sont déduites de l’expérience mais elles apparaissent comme des conditions initiales de notre univers sur lesquelles s’appliquent les lois et qui pourraient être des valeurs contingentes donc non déductibles des lois elles-mêmes. • - les paramètres d’un modèle eux -aussi déduites de l’expérience. Leurs valeurs sont les multiples d’une unité dimensionnée, elle-même combinaison de constantes fondamentales invariantes. A terme les lois du modèle décrivant l’ensemble des interactions devraient permettre de calculer ces valeurs. • Une théorie de la Nature doit permettre de déterminer sans autre facteur libre les combinaisons des constantes qui aboutiraient à ces paramètres.
Les constantes universelles sont dimensionnées et leurs valeurs s’expriment à partir d’étalons qui n’ont en soi rien de fondamental (au point que la définition du mètre est donnée par la célérité c et la mesure de la seconde). • Les constantes sont universelles si elles sont valables en tout temps et en tout lieu • Elles sont fondamentales si elles permettent en plus de combiner les dimensions de la Nature pour exprimer leur couplage dynamique. • Les constantes fondamentales permettent de construire les unités fondamentales, les étalons valables partout et en tout temps, ces étalons permettant en retour de quantifier les paramètres libres. • Les constantes fondamentales permettent de constituer des valeurs seuils dont des variables macroscopiques, exprimées relativement à ces constantes, peuvent se rapprocher asymptotiquement. Une propriété essentielle d’une vraie constante fondamentale est de caractériser l’apparition d’une nouvelle classe de phénomènes lorsque les grandeurs tendent vers ces valeurs seuils.
Quelles sont ces constantes ? • Il existe trois constantes fondamentales: • - invariantes en tout point d’espace et de temps • - combinaisons naturelles des trois grandeurs :longueur/temps/masse • - qui ne sont pas spécifiques d’un élément de matière ou d’un phénomène • - qui représentent chacune dans un domaine de la physique l’expression de l’imbrication de ces trois dimensions. • c la célérité de l’information dans le vide qui couple longueur et durée linéairement (unité m/s) • G la constante de gravitation , qui couple longueur et durée en fonction de la distance à la masse donc suivant une courbure (unité (m/s)² *m/kg) • h le quantum d’action qui couple variation d’énergie et durée (unité kg m *m/s) ou symétriquement variation d’impulsion et longueur, variation de phase et nombre de porteur propageant l’information. • Les équations naturelles font plutôt intervenir les 3 constantes c², G/c² et hc
c et G interviennent dans la métrique spatio-temporelle qui détermine les trajectoires des corps hors de toute interaction entre corps. • h intervient dans la limite de précision sur les paramètres macroscopiques exprimant des mesures dans cette métrique. • La combinaison de ces trois constantes permet de calculer trois unités élémentaires de masse, de longueurs et de temps par rapport auquel s’expriment comme des multiples sans dimensions les paramètres libres des théories quantiques (exemple masse de l’électron). • Les valeurs de c, G, h dépendent d’unités arbitraires. • Par contre les autres paramètres sont de simples multiples de dimensions combinaisons de c, G et h et leurs valeurs déterminent l’amplitude relative des phénomènes physiques. • Ce sont les paramètres de notre univers et on peut espérer les calculer à partir d’une théorie unificatrice. • Par exemple en théorie des cordes on montre que les grandeurs sans dimensions résultent de processus dynamiques.
Unités et constantes • Le Système International (SI) est composée de7 unités de base et 17 dérivées • Il pourrait se ramener à 3 mais constitue un compromis avec les pratiques historiques . • Il remplace le système MKSA du début du XXème siècle(Mètre-Kilogramme-Seconde-Ampère) lui même héritier du CGS (Centimètre-gramme-seconde). • Rappel des définitions des unités du S.I. • Mètre: longueur (exacte) parcourue par la lumière dans le vide pendant • 1/ 299 792458 seconde • Seconde: 9192631770 période du rayonnement entre deux niveaux hyperfins de césium 133 (précision = 10-14) • Kilogramme: masse du prototype international (copie étalonnée à 10-9) • Ampère: courant entre deux plaques espacées d’un mètre produit par une force de 210-7 N/m (à 10-7 près) • Kelvin: température égale à 1/273,16 de la température du point triple de l’eau (précis à 10-4 kelvin) • Mole: quantité de matière avec autant d’atomes que dans 12 gr de carbone 12 • Candela: intensité lumineuse d’une radiation de 5,4 1014 Hz de puissance 1/683 W par stéradian
Lien entre unités et constantes Ryd h ά c Mc12 Me m s kg G K A e R cd mol NA k Na: nbr d’Avogadro Ryd: constante de Rydberg Mc12 masse du carbone 12 ά constante de structure fine
Variation des constantes et conditions de la vie • Les constantessont couplées car modifier l’une sans modifier l’autre change la physique. • - l’ invariance du rapport énergie de liaison des électrons sur énergie de masse équivaut à me e²/(2ε0hc) / mec² = e²/(2ε0hc3) = α / c² constante. • - l’invariance du rapport MG/c² (courbure relativiste) • - l’invariance du rapport h/(Mc) (échelle de Compton). • Le nombre élevé de paramètres libres induit un nombre élevé de rapport de paramètres qui, s’ils étaient modifiés, changeraient la physique de notre univers. • Quelles sont les variations admissibles des paramètres libres ? Constante structure fine: électromagnétique α=1/137 et gravitation αgr~5 1038 « Coïncidence de Dirac »: R univers/R atome ~ α /αgr On estime Munivers~c3t03H0²/G d’où Munivers /mp= 1/(αgrα)² • Architecture de l’univers • Echelles Masses (unité= proton) Taille (unité= atome) • Planck 1/ αgr½ α3 αgr½ • Proton 1 α3 • Atome 1 1 • Homme (α / αgr)3/4 (α / αgr)1/4 • Planète (α / αgr)3/2 (α / αgr)1/2 • Etoile (1/ αgr)3/2 (1/ αgr)1/2 • Galaxies (α²/ αgr)2 α3/ αgr • Univers 1/(αgrα)² α/ αgr
Variations possibles αgr ~1/ α20 (trop faible étoiles radiatives sans planètes, trop fort pas de supernovae et d’éléments lourds) αw ~ (Gme²/hc)1/4 (la section efficace des neutrinos leur permettant d’éjecter les éléments lourds ~ taux de chute des couches de supernovaes) α ~ 1/137 (neuf fois plus: pas d’atome au-delà de He neuf fois moins : pas d’atomes neutres) α s trop faible: instabilité noyau et seulement hydrogène, trop fort, noyaux lourds trop stables donc trop nombreux. réaction He + Be est résonante : Be instable mais pas trop et il existe un niveau excité de C12 juste au –dessus Et He+ C12 n’est pas résonante pour ne pas convertir trop de carbone en oxygène (niveau excité juste en-dessous ou loin au dessus). Une variation de 0,1 % des constantes fondamentales dans l’interaction nucléon-nucléon fait basculer la quantité de C12 Il n’y aurait presque pas de noyau au-delà de l’hydrogène sans état lié de deutérium H² et tritium H3 Pour réduire la consommation d’hydrogène il faut que He² ne possède pas d’état lié Une variation de 4 à 6 % des constantes fondamentales intervenant dans le potentiel d’’interaction ferait basculer ces états liés.
Constantes et échelles de Planck • Il est possible de définir une échelle de temps, espace et masse à partir de ces constantes mais paradoxalement il s’agit du point de divergence total entre les lois qui les utilisent. • Ces grandeurs correspondent en effet à l’échelle où la longueur d’onde équivalente d’une masse statique est égale au rayon du trou noir de même masse. • La dualité onde - corpuscule indique que la précision sur la position du corps est sa longueur d’onde. • Inversement la relativité annonce que le corps s’effondre irréversiblement et donc à des longueurs inférieures. • Autrement dit la relativité couplée à la physique quantique ne peut décrire comment une échelle inférieure peut s’étendre jusqu’à aboutir à une métrique stable sur laquelle peut se définir une longueur d’onde caractérisant la propagation des quanta. • Il n’existe pas de métrique pouvant décrire l’émergence d’une description quantique. • C’est donc à cette échelle qu’il y a divergence absolue entre les deux approches.
Un problème plus fondamental est lié au fait qu’à cette échelle correspond la granularité minimale admissible par le principe d’Heisenberg, il s’agit donc non pas de valeur mais d’incertitude sur les valeurs. Ainsi la longueur d’onde et le sens du temps y est totalement incaractérisable alors que la relativité indique que le corps glisse irréversiblement vers une singularité. • Cette échelle est l’incertitude: • - du rayon de courbure de Planck= (G h/c3)1/2= 4,04 10-35 m • - du temps de Planck=(G h/c5)1/2= 1,35 10-43 s • - de la densité de Planck = (c5/hG²)1/2= 8,20 1095 kg/m3 • Le couplage du rayon de courbure et de la densité conduit aux notions dérivées : • - l’incertitude de la masse de Planck =(h c/G)1/2=5,45 10-8 kg • - l’incertitude de l’impulsion de Planck =(h c3/G)1/2= 16,35 100 kg m/s • - l’incertitude de la température de Planck T= M planck c² /k ~ 10 32K • Un couplage partiel réalisé par S. Hawkings entre les deux théories conduit à la prédiction à la dissipation du trou noir de cette échelle par émission thermique à la température de Planck à une échelle de temps équivalente à l’imprécision sur cette échelle.
Que signifie les constantes ? • L’existence de constantes est reliée à des distinctions impossibles à faire car elles ne représentent pas la réalité. Ce sont des informations non extractibles ou des distinctions qui n’ont pas de sens. • Ces constantes expriment l’impossibilité par une expérience : • Pour c, d’extraire une information sur un état absolu de mouvement • Pour G, d’établir une distinction entre un mouvement inertiel dans un monde de matière et un mouvement dans un univers vide (pas de frontière formelle entre matière dans espace-temps non structurée et espace-temps vide mais structuré) • Pour h, de pouvoir acquérir une information sur la structure statique de la matière en conservant une information sur son mouvement dynamique (discriminer une position d’une autre c’est supprimer la superposition des trajectoires qui constitue l’état non perturbée).