Upload
others
View
3
Download
0
Embed Size (px)
Citation preview
Annexe F Page 1 Révision du 30/10/2013
Annexe F. L’appareil mathématique de la physique quantique et de la
théorie quantique des champs. Quelques résultats expérimentaux récents. Les théories de cordes.
NB. 1. A côté de questions, que j’espère avoir éclairées, j’en ai rencontré
beaucoup d’autres, auxquelles je n’ai pas de réponse. Elles sont posées, en notes en caractères « arial », à mesure de leur apparition dans ce « text in progress ».
Là où – sans être sûr de la réponse – je penche d’un côté, je l’indique par un (oui ?)
ou un (non ?). Les questions proprement dites sont mises en italiques. Leur
numérotation peut comporter des trous : ils correspondent à des questions
antérieures, qui ont trouvé leur solution. Je serai reconnaissant à mes lecteurs de
me donner (par courriel – [email protected]) leur point de vue, ou de
m’indiquer quelles lectures ils pourraient me recommander.
2. Les références de type 14-4B concernent la section 4B du chapitre 14
de « Science et philosophie ».
3. Rappelons que la physique quantique est traitée au chapitre 4 de
« Science et philosophie ». Depuis la publication de la deuxième édition en 2010, j’ai
eu accès à quelques données récentes. Du coup, j’ai mis sur mon site l’annexe X,
actualisant la totalité de ce chapitre. Je conseille au lecteur de l’annexe F de s’y référer,
en attendant une édition ultérieure de l’ouvrage complet.
1A. La physique quantique se fonde mathématiquement sur les
espaces de Hilbert, d’une façon assez simple et cohérente.
Sur un espace abstrait de Hilbert H, on définit les états T, vecteurs
normalisés, et les observables A, opérateurs hermitiens. Deux
utilisations bien différentes en sont faites : l’étude des états stables,
avec la procédure, liée, de réduction du paquet d’ondes; l’équation
dynamique de Schrödinger, avec son opérateur d’évolution. Nous
nous focaliserons sur la première. Rappelons qu’une observable ne
peut prendre que les valeurs de son spectre; quand celui-ci est
discret, on a donc « quantification ». Par ailleurs, on peut calculer la
probabilité que la mesure de l’observable A, pour un système dans
l’état , donne la valeur particulière an; dans le cas simple où un
seul vecteur propre <un correspond à an, cette probabilité est donnée
par: <un>2, la valeur moyenne de A étant donnée par : A =
Annexe F Page 2 Révision du 30/10/2013
<A>. Une autre présentation recourt à l’opérateur statistique D, de trace
1 (on a alors : A = tr.AD et l’équation de Schrödinger devient :
ih.d/dt.D(t) = (H, D(t)) , où H est l’hamiltonien); elle a plusieurs
avantages : dans la première de ces deux formules, A (le mesurable)
est relié directement (sans hypothèses sur le sens profond de la
fonction d’onde) à un opérateur statistique. La définition de l’opérateur
s’étend aux mélanges, il sera donc utilisé aussi en physique statistique
(voir chapitre 5). L’espace des opérateurs statistiques est convexe.
Enfin, dans les cas d’intrication, des opérateurs statistiques « réduits »
s’appliquent aux sous-systèmes (ils interviennent en particulier dans la
décohérence).
Les résultats mathématiques essentiels sont les suivants :
Les équations sont linéaires; on peut donc superposer des états;
mais, comme les probabilités correspondent à des carrés
d’amplitude, il apparaît des termes d’interférence, qui rendent
compte de l’aspect onde de la dualité onde-particule.
Le théorème spectral décompose tout opérateur hermitien A selon
une formule du type :
A = ∫. dE , où E, mesure spectrale, est un projecteur sur H.
Quand A est compact, son spectre ponctuel (par opposition au
spectre continu) est fini, ou dénombrable (dans ce cas, 0 est le seul
point d’accumulation); des résultats analogues sont obtenus pour les
opérateurs de Hilbert-Schmidt et ceux à inverse compact.
L’inégalité mathématique de Schwartz permet d’obtenir pour
deux observables quelconques A et B la relation suivante, reliant
leurs deux écarts quadratiques moyens : A. B 1/2A,B, où
A,B désigne le commutateur de A et B. Cette généralisation des
relations d’incertitude de Heisenberg traduit l’impossibilité de
mesurer simultanément deux observables ne commutant pas; d’où
l’intérêt de la recherche d’un « E.C.O.C. » (ensemble complet
d’observables qui commutent). Cette recherche peut être facilitée
Annexe F Page 3 Révision du 30/10/2013
par le théorème suivant : si A et B commutent, ils sont tous deux
fonctions d’un même observable C, « plus large ». Par l’opérateur
densité, on démontre enfin le résultat naturel suivant : si A et B =
f(A) sont deux observables, et si A a la valeur propre an, alors B a la
valeur propre f(an).
Les espaces de Hilbert de la physique quantique ont généralement
(en dehors des espaces de spin) un nombre infini de dimensions. Si,
sur beaucoup d’aspects, ils généralisent l’espace euclidien, ils
recèlent aussi des propriétés nouvelles. Par exemple, pour eux et à
la différence des espaces de dimension finie, tr(AB-BA) 0, si A et
B ne sont pas compatibles; ceci nie la possibilité de certaines
méthodes finitistes d’approximation.
En revanche, il existe des résultats mathématiques, montrant que
des opérateurs, « proches » d’un opérateur ayant un spectre
discontinu, ont eux aussi un tel spectre, avec des valeurs propres
proches de celles du premier. C’est probablement par là que l’on
peut expliquer la stabilité des atomes ou molécules.
Remarques plus générales : La physique quantique ne nous dit
guère quand on peut considérer des opérateurs non bornés, comme
les opérateurs position. Le passage des opérateurs de la mécanique
classique à ceux de la physique quantique nécessite une dose de
« flair ». Enfin, l’interprétation de l’expérience peut conduire à
élargir le Hilbert de base.
Un fait remarquable de la physique quantique est son aptitude
dans beaucoup de cas simples à des méthodes de résolution
mathématique précises, souvent même explicitement calculables.
Citons, parmi les phénomènes vérifiés par l’expérience : l’effet
tunnel; l’oscillateur harmonique et la découverte de « l’énergie du
vide », la quantification et la composition des moments cinétiques;
le cas des espaces à deux dimensions, et l’introduction des spins ½;
les raies de l’atome d’hydrogène, y compris les structures fine et
hyper-fine ; les effets Zeeman (électrique) et Stark (magnétique) ;
l’oscillateur harmonique, le calcul de l’ énergie du vide (1/2hω) et
Annexe F Page 4 Révision du 30/10/2013
les opérateurs de création ou d’annihilation ; les systèmes de
particules identiques; l’effet Zénon quantique (voir plus loin) ; en
théorie quantique des champs, l’effet Aharonov-Bohm1 ; en chimie,
les orbitales; en physique statistique, les phonons, la superfluidité,
l’effet Hall quantique... Pour les cas plus complexes, la question F3
constate que les calculs d’approximations sont souvent très
valables, mais se demande si, d’un point de vue mathématique,
l’existence de niveaux quantifiés d’énergie reste prouvée.
Pour étudier un état pur intriqué, la décomposition bi-
orthonormale (de Schmidt) est utile.
1B. Les approches axiomatiques.
Il est utile d’introduire la notion d’observables compatibles, plus
chargée de sens que celle d’opérateurs commutables, qui en est
l’expression dans le formalisme hilbertien. Beaucoup
d’épistémologues, voulant aller plus loin, se sont penchés sur le sens et
le contenu d’une logique quantique. Rappelons que la proposition la
plus générale de la physique quantique est du type : « dans l’état ,
l’observable A a sa valeur comprise dans le borélien »; la physique
quantique assigne ensuite à cette proposition une probabilité. Par le
théorème spectral, une telle proposition peut être décomposée en
propositions portant sur des projecteurs. On sait que deux projecteurs P
et Q ne commutent que s’ils sont de la forme : P=A+B; Q=A+C, avec
B et C orthogonaux. Considérant l’ensemble des sous-espaces clos de
H, on peut donc définir sur lui un « treillis -orthocomplet,
orthomodulaire2 », donnant du sens à la notion d’observables
1 Par cet effet, une figure d’interférence d’électrons est modifiée par un champ
magnétique dans une région extérieure aux électrons. A côté des célèbres
problèmes étudiés en sp-4-2, c’est un autre exemple de non-localité quantique.
2 Orthomodulaire est plus faible que normal, qui est lui-même plus faible que
le plus connu distributif.
Annexe F Page 5 Révision du 30/10/2013
compatibles. Mais tout ce savant appareil n’est qu’une présentation des
règles de la physique quantique, à laquelle il n’apporte rien de plus.
D’autres ont essayé la démarche inverse, décidé à l’avance que dans un
monde où il y a des observables incompatibles, les propositions
élémentaires devaient satisfaire à certains axiomes logiques. Les ayant
posés, ils ont retrouvé le treillis précédent, mais au prix de deux
restrictions, qui en enlèvent l’intérêt : Les règles imposées aux
propositions élémentaires sont logiques, mais invérifiables. Le treillis
des sous-espaces de Hilbert, quoique non booléen, est plus particulier
que ce treillis très général; on ne peut donc à partir de ce dernier (et de
la logique spéciale, auquel il correspond) retrouver la physique
quantique. Cet argument technique renforce la position de principe,
prise dans le corps du texte, que la physique quantique doit utiliser la logique classique (qui sait fort bien traiter des treillis) et la théorie
classique des probabilités (en 4-5); il faut seulement renoncer à la
possibilité (et même au sens) de mesurer simultanément deux
observables non compatibles.
Il est clair que l’algèbre des opérateurs bornés de H joue un rôle
essentiel : relations de commutation; fonctions d’opérateurs;
recherche d’E.C.0.C... Là encore, on peut essayer de partir
d’algèbres « naturelles », posées a priori, et de parvenir à l’espace
de Hilbert traditionnel. Les algèbres de Segal rendent bien compte
de la notion d’observables compatibles; mais elles sont trop
générales pour être utilisables. On peut se restreindre aux C*-
algèbres, aux très belles propriétés mathématiques. En particulier, le
célèbre théorème « GNS » permet de retrouver l’espace de Hilbert.
Mais une C*-algèbre est-elle plus naturelle, plus explicative, qu’un
espace de Hilbert? D’autres ont insisté sur un théorème, lié, de Gleason ; celui-ci fait
des hypothèses simples sur la fonctionnelle qui, à partir d’un état
donné de l’espace de Hilbert, calcule la valeur moyenne de tout
observable ; il retrouve l’opérateur statistique (donc la stochasticité) et
la règle de Born ; utilisant une notion de convexité, il peut décomposer
cet opérateur « nucléaire » et retrouver les « états purs ». Mais ce beau
résultat, pas plus que des approches très générales de la convexité, ne
Annexe F Page 6 Révision du 30/10/2013
dispense pas de partir d’un espace de Hilbert! Le théorème de Gleason
est aussi une voie d’accès au théorème de Kochen-Specker et à l’étude
de la décohérence.
La notion de E.C.O.C. est précisée par le recours à des algèbres de
von Neumann commutatives. Parfois même, cela permet de passer à un
espace de Hilbert plus général.
Au total, ces approches sont éclairantes, mais non décisives.
Il arrive que, dans certaines circonstances, une C*-algèbre se
décompose en deux sous-algèbres indépendantes. C’est le cas, en
théorie électro-faible, quand électromagnétisme et interaction faible
se découplent. On fait intervenir alors des règles de supersélection.
1C. Quelques précisions sur théorèmes, expériences de pensée, et expériences.
1Ca. Bell-Kochen-Specker. Greenberger-Horne-Zeilinger. Conway-Kochen.
Le théorème de Bell-Kochen-Specker (BKS - 1966)
s’applique à une particule de spin 1. La physique quantique prévoit
que, si l’on mesure simultanément le carré du spin d’une telle
particule sur les trois axes d’un repère orthonormal (ce qui est licite,
puisque les trois observables mesurées commutent), on obtient
forcément une valeur 0 et deux valeurs 1. Le théorème prouve que ce
n’est pas possible pour tous les repères orthonormaux envisageables.
Dans sa forme première ici exposée, à la démonstration assez
laborieuse, ce théorème soulignait plutôt la contradiction entre deux
positions, toutes deux naturelles pour un réaliste : l’existence de
variables cachées déterministes, la contextualité. La première position
a perdu beaucoup de son intérêt, puisque c’est même – depuis la
vérification de la violation des inégalités de Bell – l’existence de
variables cachées aléatoires que dément l’expérience. Mais les
difficultés logiques de la contextualité subsistent, plus fortes encore
dans d’autres exemples plus récents.
Annexe F Page 7 Révision du 30/10/2013
(1989) Greenberger-Horne-Zeilinger (GHZ). Il a été exposé sous sa
forme courante dans sp-4-2C. Il en existe bien des variantes plus
raffinées. Donnons seulement deux exemples. 1. D. Mermin considère
un ensemble de 8 spins, où une transposition contextuelle de GHZ
conduit à un théorème type Bell de non-localité. 2. On peut concevoir
(même si la réalisation pratique apparaît difficile) que plusieurs spins
commutant puissent être mesurés dans une seule expérience. Dans un
tel cas, serait aussi violé le principe exposé à la page 3 : si A et f(A)
sont deux observables, et si A a la valeur propre an, alors f(A) a la
valeur propre f(an). *
Le « théorème » de Conway-Kochen (« CK » - 2006) est une
application malheureuse du théorème de Bell-Kochen-Specker. Deux
observateurs A et B, en relation espace, étudient deux particules
intriquées a et b. A décide « librement » du choix d’un repère pour
une mesure de spin sur a. On voudrait déduire de Kochen-Specker
que a est « libre » par rapport à b, malgré l’intrication. La physique
quantique, déjà compliquée et qui a déjà du mal à bien distinguer
quand il y a déterminisme ou hasard, n’a pas besoin qu’on y
introduise – même à titre de métaphore - une liberté de la particule !
(malgré mon admiration pour son auteur, je n’aime pas plus le
recours à la conscience de « l’ami de Wigner »). De là à parler,
comme CK de « culmination de tous les théorèmes des cinquante
dernières années sur la physique quantique » !3
1Cb. Quelques précisions sur EPR et ses prolongements.
La première expérience conclusive a été faite par A. Aspect (1982)
sur des photons séparés de quelques mètres. Depuis, la distance (repère
de la « localité) a été portée à 144000m (A. Zeilinger-2007). A ces
distances, la précision des mesures devient extrême. Par ailleurs, les
3 Voir aussi mon texte « Déterminisme, hasard, vie et liberté », et son annexe 4, consacrée à CW.
Annexe F Page 8 Révision du 30/10/2013
possibilités d’échappatoires (loopholes), pourchassées, sont de plus en
plus ténues.
Ces expériences réfutent un « réalisme local ». Mais faut-il réfuter le
réalisme ou la localité ? C’est une question toujours posée par certains
physiciens. On a vu, dans sp-4-2C, mes réserves sur le flou de cette
question, le mot de réalisme s’appliquant à tant de situations
différentes ; disons-en cependant quelques mots. La discussion
voudrait garder à la réalité le sens étroit « d’éléments de réalité » donné
par EPR, possédés par chaque particule. Mais il faudrait alors admettre
des actions à distance spéciales, que Gröblacher décrit comme
« spooky » (fantomatiques). Beaucoup de montages expérimentaux qui
y correspondent (sur des photons polarisés, auxquels s’applique
seulement la loi de Malus) violent des inégalités particulières, de type
Bell, suggérées par A. Leggett. Mais ces expériences ne couvrent pas
toutes les possibilités. Donc (2007), pas de conclusions.
A. Suarez a évoqué l’idée la possibilité de cas « before-before » où,
dans l’esprit de la relativité, chaque particule disposerait de son propre
système de référence. Des expériences dans ce sens (N. Gisin, A.
Suarez -2001) ont confirmé la physique quantique, écarté les
explications temporelles, et donc exclu une causalité entre une particule
et une autre.
Nous avons écrit (en sp-4-2) que la non-localité ne permet pas de
transmettre instantanément de l’information d’une particule à une autre.
Notons aussi que l’on déduit des postulats de la physique quantique que l’on
ne peut dupliquer un état quantique (c’est le théorème de non-clonage) ;
c’est fort heureux pour la théorie de la relativité, car la duplication
permettrait des échanges d’information instantanés ! En revanche, la
« téléportation quantique » (qui exploite les corrélations entre deux
particules intriquées pour reproduire à distance l’état de spin d’une troisième
particule) a été réalisée. On peut envisager la cryptographie quantique et
l’ordinateur quantique.
Annexe F Page 9 Révision du 30/10/2013
1Cc. L’expérience de pensée de L. Hardy (1992). Son raisonnement
de base était le suivant : on observe un électron et un positon dans deux
interféromètres, dont les bras intérieurs I1 et I2 (les bras extérieurs sont E1
et E2) sont couplés de façon que les deux particules s’annihilent, si elles
prennent toutes deux le chemin intérieur. Classiquement, on ne peut donc
pas repérer à la fois électron et positon dans les deux branches
extérieures (obtenir un double clic en E1 et E2). Hardy a suggéré que ceci
pourrait paradoxalement arriver en physique quantique. La nouveauté est
que la technique des « mesures faibles », dont le principe a été suggéré il
y a longtemps (1988) par Y. Aharonov, permet maintenant de faire les
mesures correspondantes (les mesures traditionnelles, interférant entre
elles, ne le pouvaient). Le principe de cette technique est de travailler
dans une zone où le couplage entre l’appareil de mesure et l’observé est
trop faible pour perturber le système ; la rançon en est que, pour en tirer
des enseignements, on doit raisonner en probabilité sur de très nombreux
essais. Deux expériences réelles récentes (2009, Yokota et Lundeen), sur
la base de ces mesures faibles, ont utilisé une paire de photons (qui ne
peuvent s’annihiler mutuellement, mais dont le choc est observable).
Elles confirment la prévision de Hardy.
Quels enseignements ?
1. Positif : La technique des mesures faibles fait ses preuves. Elle
pourrait théoriquement être appliquée aux célèbres expériences de la
double fente, et à la cryptographie. Ces mesures sont déjà sans
démolition. Rappelons qu’en sp-4-3 et sp-20 nous insistons plus
généralement sur l’intérêt philosophique des mesures sans démolition (il
en existe d’autres types, non probabilistes, de caractère beaucoup plus
proche des mesures de la physique classique, et de ce fait apparemment
d’application plus générale).
2. Controversés : Yokota qualifie ses résultats d’absurdes (preposterous),
puisqu’il y a des probabilités non comprises entre 0 et 1, Lundeen de
Annexe F Page 10 Révision du 30/10/2013
fantomatiques (spooky) ! Mais l’absurdité ou le fantôme ne sont là que si
l’on rejette la contextualité. Mieux vaut penser que c’est encore un cas
(comme GHZ) où les différentes mesures (quatre) envisagées sont
incompatibles.
Comme pour les fentes d’Young, le fait d’évoquer des probabilités
ou des logiques non classiques ne fait que déplacer le problème.
1Cd Effet Zénon quantique.
On attribue à Zénon d’Elée l’apologue d’Achille, incapable de
rattraper la tortue (qui, à chaque objectif qu’il se fixe pour la
rejoindre, constate – une fois qu’il l’a atteint - que la lente bête a
encore un peu progressé au delà). Cet apologue n’était un paradoxe
qu’à une époque où on ignorait qu’il existe des séries infinies
convergentes !
En revanche la physique quantique, avec sa conception originale de la
mesure, se prête, sinon à un paradoxe, au moins à une situation étrange,
proche de celle d’Achille : si on fait, sur le même observable, beaucoup
de mesures successives suffisamment rapprochées, le système reste figé
dans la situation où il se trouve à l’issue de la première mesure (on
démontre mathématiquement que la probabilité qu’il en soit ainsi tend
vers 1 si le nombre d’essais tend vers l’infini). Comme beaucoup
d’autres situations quantiques étranges, celle-ci a été confirmée par des
vérifications expérimentales. On rapproche de l’effet Zénon la question
déjà ancienne (1927), de F. Hund : comment une molécule d’ammoniac
peut-elle osciller entre lévogyre est dextrogyre ? Question exprimée en
langage quantique par : pourquoi la molécule n’est-elle pas stabilisée en
une superposition des deux états ? La réponse est qu’un effet tunnel lent
est bloqué par des interactions rapides avec l’environnement.
1D. Exemples et calculs de la décohérence. 1Da. Les états pointeurs.
Dans sp-4-3, nous avons montré l’incompatibilité du processus
de mesure avec les postulats de base de la physique quantique, et
Annexe F Page 11 Révision du 30/10/2013
signalé l’importance de la décohérence induite par tout environnement
extérieur. W. Zurek utilise l’expression “environment induced super-
selection” (qu’il rattache aux règles de super-sélection, évoquées à la
fin de 1B). Il introduit la notion d’une base d’états pointeurs du
système de mesure : ces états, qui résisteraient aux attaques de
l’environnement, pour lesquels ne survivraient que les termes
diagonaux, verraient leur aiguille (pointer en anglais) se stabiliser. S.
Weinberg, minimisant l’originalité de la notion, préfère la
terminologie d’états classiques. Il y a des exemples, mais tellement
simples qu’ils en deviennent banals. Pour justifier cette notion, Zurek
et d’autres ont fait des calculs sur des cas encore très simples (par
exemple, dans le modèle « spin-boson », l’appareil de mesure a juste
deux niveaux et est sujet à un mouvement brownien quantique -
l’environnement peut être un ensemble d’oscillateurs harmoniques).
Malgré de nombreuses approximations, ces calculs sur des modèles
simples sont déjà très complexes. On explicite la forme de l’action S
avec des termes de couplage, et on en déduit – après maintes
approximations - dont des cut-offs, pour retrouver un caractère
markovien – une équation maîtresse, de type Born-Markov, où des
termes de dissipation et de décohérence correspondent au couplage.
On travaille alors sur cette équation.
Il serait intéressant de calculer le temps de relaxation de la
décohérence (qui devrait être beaucoup plus rapide que la
dissipation) ; ce calcul est possible, mais à partir des constantes de
couplage qui, elles-mêmes, ne sont pas connues. D’une façon plus
générale, les conclusions n’échappent pas à une certaine circularité.
Citons celles de B. Hu, un des fondateurs de la théorie : « Si
l’interaction entre le système et l’environnement est telle que les états,
pour lesquels le système manifeste un comportement macroscopique,
deviennent corrélés à des états de l’environnement qui soient
approximativement orthogonaux, alors le système peut évoluer sous
une forme… où la base de pointeurs… coïncide approximativement
avec les états propres de l’hamiltonien d’interaction. La décohérence
Annexe F Page 12 Révision du 30/10/2013
est accomplie » (les soulignements sont de mon fait). Une autre
objection forte est que la réalité est beaucoup plus complexe que les
modèles très simplifiés cités plus haut.
Remarquons enfin que l’expérimentateur sait à l’avance quel niveau
d’énergie va être mesuré par l’aiguille de son appareil. Ceci réduit
l’intérêt même des « états pointeurs ».
1Db. Les calculs sur la décohérence visent le raccord entre le micro
réversible et le macro irréversible. Ils se rapprochent ainsi des calculs
de physique statistique, voulant retrouver la flèche du temps à partir
de la physique quantique, et qui sont décrits à la note 92 de sp.
Comme eux, ils paraissent « hardis » au mathématicien. Mais, alors
que Boltzmann avait eu l’intuition géniale de relier entropie et
probabilité, les modèles de décohérence ne sont que des jeux de
calculs sur ordinateurs, sans les données expérimentales probantes qui
permettraient de les vérifier. Ajoutons un vocabulaire « Santa-Fé »
qui évoque complexité, théorie des systèmes, théorie de
l’information, fonction d’onde de l’univers… et même darwinisme.
Les calculs de la théorie quantique des champs sont eux aussi hardis,
mais ils ont l’énorme mérite de se prêter à des vérifications
expérimentales étincelantes !
1E. Les autres interprétations de la physique quantique.
La théorie (1952) de D. Bohm, théorie à variables cachées, assez
proche de la mécanique classique, maintient un déterminisme ; elle
lie étroitement la particule (qui a une trajectoire déterminée) et
l’onde qui la guide (qui est bien plus qu’une amplitude de
probabilité). Elle présente ce caractère dérangeant que les variables
cachées que sont les paramètres des particules n’influent pas sur la
fonction d’onde.
Annexe F Page 13 Révision du 30/10/2013
La théorie (1984) des histoires consistantes constate les difficultés
de la théorie de la mesure quantique. Elle analyse donc, sans faire
référence aux instruments de mesure (et, a fortiori, à
l’expérimentateur), la succession des événements possibles dans
une chaîne de mesures. Dans une perspective fondamentalement
aléatoire, une histoire sélectionne une chaîne de projecteurs
successifs ; on demande à une famille d’histoires que la somme des
différentes probabilités soit égale à 1 ; on recherche des familles
« consistantes », où les interférences aient disparu. Des exemples
simples en sont donnés (des expériences non destructives sur des
interféromètres, une radioactivité α...). Le formalisme des histoires
consistantes rend compte de la complémentarité. Il est surtout tourné
vers le passé (comme le révèle le terme même d’histoire). Se
contentant de calculer des probabilités, il abandonne l’espoir de
décrire les systèmes physiques. Plutôt qu’une interprétation
nouvelle, il est un commentaire intelligent de la théorie quantique
orthodoxe. R. Griffiths, l’un de ses auteurs, insiste sur un des
caractères dérangeants du quantique : qu’il tolère des descriptions
multiples et incompatibles. Il pense en revanche que beaucoup des
paradoxes (par exemple ceux liés à la supraluminalité) disparaissent
quand une chaîne consistante a éliminé mesure et mesureur. Un
inconvénient est qu’il y a un nombre énorme d’histoires possibles :
comment choisir ?
La théorie des mondes multiples (« MWI » -H. Everett -
1957) se débarrasse du si difficile problème de la réduction du
paquet d’ondes ; elle pose pour cela que chaque mesure quantique
ouvre la voie à autant de résultats différents que la quantification
n’en permet ; ainsi la succession des mesures dans le temps conduit
exponentiellement à une multitude de mondes parallèles. Mais cette
théorie est-elle plus qu’un artifice? Bell l’avait qualifiée de
« extravagantly vague ». Beaucoup de philosophes contemporains
et la littérature populaire se sont emparés de ce thème.
Annexe F Page 14 Révision du 30/10/2013
Ghirardi-Rimini-Weber voulaient (1986) expliquer le très
difficile problème de la réduction du paquet d’ondes en ajoutant à
l’équation de Schrödinger des termes de « localisation spontanée »,
non linéaires et aléatoires. Théoriquement, mais non pratiquement
testable. C’est typiquement une théorie ad hoc : sur chaque particule,
des éclairs se produiraient (à un taux de 1 par 1015
sec !) et
localiseraient l’onde (avec une précision de 10-7
m). Elle redevient à
la mode, parce qu’une de ses variantes (R. Tumulka, 2006), encore
plus complexe, pourrait respecter la relativité.
C. Rovelli insiste sur la relation entre l’objet et l’instrument de
mesure (comparons à la mécanique classique, où on mesure seulement
la vitesse relative de l’objet par rapport à l’observateur).
Certaines théories (comme celle de Bohm, ou celle des histoires
cohérentes) sont construites pour retrouver toutes les prédictions de
la physique quantique, et ne sont donc pas testables. C’est
évidemment aussi le cas de celle, philosophique, des mondes
multiples. En revanche, la théorie GRW l’est, au moins en principe.
2. La théorie quantique des champs.
Beaucoup d’ouvrages étudient cette théorie. Certains adoptent
volontairement un point de vue extrêmement intuitif, sans rigueur
mathématique, mais, à ce prix, rendent parlantes des notions
complexes, comme propagateurs et diagrammes de Feynman,
renormalisation, théories de jauge... Beaucoup d’autres,
malheureusement, sont incapables de faire une démarcation claire
entre intuition et formalisme ; ils deviennent inaccessibles au
non-spécialiste.
La théorie quantique des champs a commencé par
l’électrodynamique quantique, mais son domaine d’application vise
toute la physique des particules (électromagnétisme; interactions
Annexe F Page 15 Révision du 30/10/2013
faibles et fortes; tentatives d’unification), et rend compte de leurs
mécanismes de création et d’annihilation.
2A. L’électrodynamique quantique.
Un guide essentiel pour en comprendre les cheminements est la
recherche d’une présentation compatible avec la relativité restreinte.
C’est la démarche du livre de S. Weinberg (voir réf. au chapitre 4);
nous insisterons sur les questions qu’il pose.
Il n’est pas inutile de rappeler quelques données mathématiques
concernant le groupe propre de Lorentz, et celui de Poincaré, à la
base des invariances de la relativité restreinte : La meilleure
définition du premier est: SLC2 / Z2 où SLC2 est le groupe spécial
(dét = 1) linéaire complexe à deux dimensions, et Z2 la matrice à
deux éléments. SLC2 est un groupe de Lie compact à 6 générateurs,
dont il est intéressant d’étudier l’algèbre de Lie: une transformation
linéaire aisée de ses générateurs en deux matrices vectorielles à
trois dimensions a et b permet d’en déduire les relations simples: a
x a = ia; b x b = ib; (a, b) = 0. Ce n’est pas un hasard si ces
équations rappellent les relations bien connues des rotations, car
celles-ci forment un sous-groupe du groupe de Lorentz (du coup,
toutes les formules de composition des rotations du type
Clebsch-Gordan s’appliqueront). L’intérêt de cette transformation
est qu’elle permet de trouver toutes les représentations irréductibles
du groupe de Lorentz, en les reliant à des représentations
tensorielles ou « spinorielles » de degrés variés (« spinorielle »
correspond à des représentations « projectives » où on admet un
facteur de phase - ici +1 ou -1); on touche par là aux célèbres
algèbres de Clifford, et aux relations d’anti-commutation. Le
groupe de Lorentz n’est pas compact (c’est intuitif pour les
« boosts ») ; de ce fait, il n’admet pas de représentation finie
unitaire; on travaille donc sur des champs, et non sur des fonctions
d’onde, qui devraient être unitaires.
Il existe un difféomorphisme qui plonge le groupe propre de
Annexe F Page 16 Révision du 30/10/2013
Lorentz dans 0(l, 3, R) (le groupe pseudo-orthogonal de de Sitter,
préservant la métrique lorentzienne); son image y est la composante
connexe de l’unité ; elle est encore équivalente au « sous-groupe
orthochrone » caractérisé par Dét = 1, et 0
0 1 (cela correspond à
la préservation de l’orientation et de la flèche du temps). Le groupe
de Lie généralisé, incluant renversements du temps ou de l’espace,
est isomorphe à 0(1, 3, R).
Le groupe de Poincaré est le groupe de Lorentz étendu aux
translations (produit semi-direct), qui conduira à la règle de
transformation : = exp (-ia.p.), et à la conservation des
moments dans les diagrammes de Feynman.
Le cheminement de Weinberg est schématiquement le suivant :
moyennant une hypothèse de localité, il prouve l’invariance par le
groupe de Poincaré de la « matrice S », unitaire, instrument
fondamental du calcul des « sections efficaces » de diffusion,
auxquelles l’observation accède. On se souvient que des méthodes
d’approximation successives conduisent à la célèbre formule de
Dyson, schématisée par : S = T.exp-i ∫+∞
-∞ dtV(t), où V est le
terme perturbateur de l’hamiltonien, et T exprime le « time-ordered
product ».
On détermine ensuite, pour chaque espèce de particules, selon
que sa masse est nulle ou non, et selon son spin, la représentation
irréductible du groupe de Lorentz-Poincaré qui lui convient, et on
exprime son champ à partir des opérateurs de création-annihilation.
Un théorème de factorisation par amas (clusters), élimine les
champs « non connectés » ; cette « localisation » permet de
factoriser la matrice S et de montrer son analycité. La conjugaison
de ce théorème avec l’invariance de Lorentz et la physique
quantique permet à l’approche de Weinberg de retrouver tout le
formalisme de la théorie « conventionnelle ». Les deux approches
arrivent ensuite dans un « esprit physique » aux célèbres
Annexe F Page 17 Révision du 30/10/2013
diagrammes de Feynman, aux propagateurs.4 de Green, et aux
intégrales de chemin Celles-ci, proches des outils du mouvement
brownien, n’en ont pas la rigueur.
En passant, on a rendu compte de plusieurs données
expérimentales fondamentales : la conservation des charges
électriques ; l’existence des anti-particules ; les statistiques des
bosons et des fermions; la masse nulle des photons; le théorème
« CPT »; on a compris le sens profond des violations de symétrie C,
constatées dans les interactions faibles : elles sont liées à la
distinction entre vecteurs et pseudo-vecteurs.
D’autres chercheurs, plus orientés vers la rigueur mathématique5,
ne se satisfont pas de la façon de traiter les infinis dans les calculs
de perturbation. Ils prônent une théorie directe constructive
(utilisant des algèbres locales d’observables), respectant les
relations d’incertitude, capable de traiter toutes les théories de
jauge, constatent que - s’ils se limitent à un espace-temps non
physique de trois dimensions - ils obtiennent des résultats
satisfaisants, et espèrent – après beaucoup d’années de recherche –
aboutir à un résultat dans le cas de quatre dimensions. Dans ce
genre de théories, les concepts de particule localisable et
d’interactions entre elles deviennent encore plus difficiles.
Subsistent aussi des théorèmes « no-go » (montrant des
contradictions logiques).6 Le fossé entre les deux écoles est
4 L’équation fondamentale de Dirac, sans second membre : (1/i (. +m) =
0), admet des solutions ondulatoires. Traiter des perturbations se ramène, au moins
intuitivement, à résoudre, à l’aide des propagateurs, l’équation avec second membre.
5 Cf. la fin de sp-1-2.
6 Ainsi sous réserve d’hypothèses naturelles, dont ce qu’il appelle
« localisabilité » (qu’une particule ne puisse être trouvée dans deux régions
sans recouvrement), D. Malament a montré qu’une particule a une
Annexe F Page 18 Révision du 30/10/2013
manifestement très profond.
2B. Les autres applications de la théorie quantique des champs.
Quand on dépasse l’électrodynamique quantique, des difficultés
supplémentaires apparaissent. Plusieurs concepts mathématiques
délicats jouent un rôle essentiel :
Comme en relativité générale, on considère des variétés
différentiables (cf. annexe C), mais ce sont des espaces abstraits.
Les groupes d’invariance des coordonnées sont remplacés par des
groupes de Lie, généralement non-abéliens, qui représentent les
symétries entre les différentes particules. Les mêmes notions de
dérivée covariante, de connexion, sont utilisées (la différence étant
seulement que les physiciens emploient les termes de jauge et
d’invariance de jauge, là où les mathématiciens parlent de
connexions et de symétries). Aux symétries sont associées des
invariances. Dans les théories de jauge locale (où les symétries sont
locales), extrêmement importantes, l’on peut définir de précieuses
connexions. Des questions de topologie globale de ces variétés
peuvent jouer un rôle, comme dans l’effet Bohm-Aharonov, ou
pour les monopôles magnétiques.
Les symétries entre particules ne sont pas parfaites; les
unifications de théories correspondent souvent à des brisures de
symétrie (l’unification ne se fait qu’à des énergies supérieures à un
certain seuil; en deçà, il y a découplage). Ces phénomènes, bien
étudiés, supposent une forme assez particulière (artificielle?) de
lagrangien. Des mécanismes complexes (par exemple, pour les
probabilité nulle d’être dans quelque partie de l’espace que l’on considère !
Remarquons que cette notion très forte concerne une seule particule (alors
que la « localité », considérée en sp-4-2, s’oppose aux influences que
pourraient exercer l’une sur l’autre deux particules éloignées). Il est difficile
de rejeter une notion aussi « naturelle ». Mais la conserver et admettre le
théorème démolit toute dualité champ/particule en théorie quantique des
champs ! D’autres spécialistes cherchent des échappatoires.
Annexe F Page 19 Révision du 30/10/2013
interactions faibles, faisant intervenir le boson de Higgs)
aboutissent à donner de la masse à des bosons de jauge initialement
sans masse.
Il faut dire ici un mot des problèmes de renormalisation. Pour
qu’une théorie ait un sens physique, il faut que les grandeurs
mesurables qu’elle calcule soient finies. Or les diagrammes de
Feynman donnent des quantités infinies, dès qu’ils concernent des
boucles, c’est à dire que des « self -interactions » sont introduites.
Pour sortir de ce paradoxe, on a besoin de deux étapes. La première
introduit un « cut-off », par exemple une limite supérieure à
l’énergie. La seconde fixe une règle de dépendance de quelques
paramètres du lagrangien, visant à ce que, s’ils passent à l’infini, les
fonctions mesurées restent finies. Le groupe de renormalisation est
l’outil utilisé (sous la forme d’un semi-groupe, il est aussi précieux
dans l’étude des phénomènes critiques de la physique
macroscopique – voir l’annexe G). Quand nos visées sont atteintes,
on dit que la théorie est renormalisable, critère essentiel. Adaptée
au cas des théories effectives, utilisant toutes les symétries, la
renormalisabilité a été démontrée pour la théorie électrofaible. En
chromodynamique, elle est permise par sa liberté asymptotique (les
interactions diminuent asymptotiquement quand les énergies
augmentent), liberté constatée expérimentalement.
A l’inverse de l’électrodynamique quantique, où la constante de
structure fine est petite, les interactions fortes de la
chromodynamique ne se prêtent pas à des calculs perturbatifs. On
cherche à approximer la « vraie » théorie par des théories effectives,
fondées sur des treillis. La chromodynamique fait un large usage de
la matrice S. Nous avons cité, dans sp-4-4, l’important problème,
non résolu aujourd’hui, du « mass gap ».
Annexe F Page 20 Révision du 30/10/2013
3. La théorie (les théories) des cordes.
Nous avons évoqué en 6-2A le rêve constant des physiciens de
parvenir à une théorie unifiée. Leurs espoirs se concentrent
actuellement sur les théories de cordes. Sont-elles l’objet d’un
engouement passager (dans notre monde médiatisé et soumis à
l’argent, les chercheurs doivent prendre rang bien avant réussite
confirmée) ? Représentent-elles au contraire l’amorce d’une théorie
révolutionnaire, unifiant définitivement relativité générale et
physique des particules? Personne ne peut le dire aujourd’hui;
surtout pas moi, qui n’ai pas fait le même effort de compréhension
de ces théories difficiles que dans d’autres domaines. Je me
contenterai donc de quelques indications.
On a vu un peu plus haut que beaucoup d’applications de la
théorie quantique des champs se heurtent à des infinis, que même
des techniques sophistiquées de « renormalisation » ne parviennent
pas à éliminer. Les débuts de la théorie des cordes ont suivi la
remarque mathématique que des symétries faisaient disparaître ces
infinis dans certains espaces à dix dimensions. D’où l’idée, reprise à
Kaluza-Klein (1919 et 1926) d’introduire des dimensions
supplémentaires (6 = 10 - 4) de l’espace-temps, invisibles parce que
repliées et de taille infime (comparable – fort naturellement - à la
longueur de Planck). Les espaces correspondant prendraient la
forme d’une « variété kählérienne compacte de première classe de
Chern ». Dans cet espace abstrait vibreraient des cordes à une
dimension circulaire compacte (à leur excitations non linéaires de
« solitons » correspondraient des « branes » à plusieurs
dimensions). A chacun de leurs modes de vibration correspondrait
une classe de particules; un mode particulier permettrait de définir
un graviton, intermédiaire obligé d’une théorie quantique de la
gravitation. Les photons, vibrations ouvertes, ne pourraient se
déplacer que dans les trois dimensions de l’espace traditionnel. Ceci
rendrait les autres dimensions inaccessibles à notre expérience (sauf
Annexe F Page 21 Révision du 30/10/2013
pour des effets gravitationnels, dont on sait qu’ils sont extrêmement
faibles à l’échelle des particules).
De telles théories sont séduisantes sous beaucoup de points de
vue : elles sont les seules à unifier théorie quantique et relativité
générale ; quand elles sont théories des supercordes, elles recourent
aussi à la supersymétrie7 ; abandonnant la notion de particule
ponctuelle, elles peuvent régler les problèmes de renormalisation ;
elles rendent compte de la dualité électricité//magnétisme. Elles
laissent enfin espérer que les quatre forces fondamentales
pourraient s’unifier aux alentours de la longueur de Planck.
Les points négatifs tiennent à leur extrême complexité. L’appareil
mathématique suppose une connaissance, aujourd’hui incertaine, de
la topologie de ces espaces difficiles, avec leurs « trous ». Cinq
variantes s’affrontent (des dualités subtiles, mais essentielles,
semblent les relier dans le cadre d’une encore mystérieuse « théorie
M ») ; mais elles se ramifient, quand on veut préciser, en un nombre
astronomique de solutions possibles. Des calculs pratiques ne
peuvent être actuellement envisagés; même s’ils devenaient
possibles, leur vérification normale se ferait à des énergies
inaccessibles, sauf à recourir à de subtiles et difficiles expériences
indirectes. Enfin, ces théories n’expliquent pas plus la flèche du
temps que la physique quantique « traditionnelle ».
Personnellement, je reste perplexe sur les coïncidences qui font retenir les dix dimensions. Pour le nombre D de dimensions, les équations du champ contiennent un terme en (D – 10) extrêmement gênant et l’on s’en débarrasse en posant que D = 10; ce n’est pas très loin d’un principe anthropique et on sait que je ne l’aime guère (cf. 12-2) !
L’abstraction du réel microscopique de la physique quantique (cf.
4-2) devient extrême pour les théories de cordes : espace, temps,
7 Dans l’espace-temps à quatre dimensions, la super-symétrie a l’intérêt de disposer d’un groupe
assez évident de symétrie.
Annexe F Page 22 Révision du 30/10/2013
énergie, charge électrique et – on vient de le voir – espèces de
particules dérivent de ces cordes premières et des variétés abstraites
dans lesquelles elles évoluent. A l’échelle si faible des cordes, on
peut envisager que l’espace-temps doit lui aussi quantifié.
On trouvera à l’annexe G quelques indications sur la théorie de la
gravitation quantique à boucles, concurrente.
Questions ouvertes.
F1. Du fait de la discrétisation des niveaux d’énergie, les espaces de Hilbert de la physique quantique sont-ils tous de dimension dénombrable ? Oui ? Du coup, même dans une optique constructiviste, on peut démontrer, moyennant l’axiome de choix dénombrable, qu’ils ont une base (cf. annexe K). Je comprends que tous les Hilbert à base dénombrable sont isomorphes (mais selon les problèmes considérés, on y introduit des opérateurs différents).
F2. Un état pur est-il « objectif ? Pour W. Unruh, un état qui apparaît pur à un détecteur au repos, apparaîtra mélangé à un détecteur accéléré. Y a-t-il eu des expériences à ce sujet ?
F3 (long exposé de la question !).
La solution rigoureuse de la quantification de l’atome d’hydrogène a été, nous l’avons dit dans le corps du chapitre 4-1, un immense succès de la physique quantique. Elle a bénéficié de conditions extrêmement favorables : l’existence d’un potentiel central permet de diviser les difficultés ; on fixe d’abord les
Annexe F Page 23 Révision du 30/10/2013
moments cinétiques par leur quantification habituelle ; on n’a plus ensuite en ce qui concerne la fonction propre radiale qu’une équation différentielle simple (au lieu d’une équation aux dérivées partielles compliquée) ; des considérations de comportement asymptotique de ses solutions aux faibles et grandes distances imposent la quantification de l’énergie ; la fonction d’onde spatiale est calculée. Pour les atomes plus complexes, puis pour les molécules, des calculs approchés des énergies et des schémas de configurations spatiales seront élaborés par des méthodes semi-empiriques, évoquées en 6-2C.
Je clarifierai la question qui me préoccupe par une comparaison avec la physique classique. Dans celle-ci, une fois posée l’équation de base, et définies les forces, le système d’équations différentiel apparaît. Même si sa solution, exacte ou même numérique, peut dépasser les possibilités humaines, on sait que – sauf cas exceptionnels – elle existe (ce savoir est une forme du déterminisme, cf. sp-2-1). En physique et chimie quantiques, qui nous dit que, dans les approximations nécessaires, les fondamentales quantifications soient prouvées, plutôt qu’assumées dans les hypothèses de calcul ? Par exemple, je me demande si les considérations de comportement asymptotique du paragraphe précédent, qui ont fourni une bonne preuve de la quantification de l’atome d’hydrogène, sont aisément généralisables à des cas (les molécules) où le potentiel central unique a disparu. En particulier, la preuve mathématique de l’existence d’une quantification discontinue pour l’énergie survit-elle à la méthode d’approximation ?
F4. Le statut du temps en physique quantique ne me semble pas clair. Est-il une observable ? Non ?
F5. Le spin est un moment cinétique. En mécanique classique, il y a un théorème de conservation du moment cinétique – global, mais dans un espace limité. Dans des expériences de type EPR,
Annexe F Page 24 Révision du 30/10/2013
deux particules intriquées ont leurs spins toujours opposés, et donc il arrive que le spin de chacune d’elles (très loin l’une de l’autre) bascule immédiatement. N’y a-t-il pas par là une violation (dans une conception relativiste) du théorème de conservation ?
F7. Quel est l’intérêt de la théorie des groupes quantiques ?
F8. Toute la théorie quantique des champs repose sur l’équation hyperbolique de Klein-Gordon. Est-elle bien étudiée par les mathématiciens ? En particulier, y a-t-il des conditions claires d’existence d’une fonction de Green ? Si oui, ces conditions sont-elles vérifiées dans les situations concrètes de la théorie quantique des champs? Id. pour l’équation de Dirac, plus complexe, mais du premier ordre.
F10. Violations de parité.
Une question naïve de mathématiques : dans l’espace à 3 dimensions, on définit gauche et droite, on distingue vecteurs et pseudo-vecteurs (comme on discerne i de –i en algèbre). C’est la fameuse parité P. Ces conceptions se généralisent-elles à des espaces à plus de dimensions (impaires) ? Oui ?
La non violation de CPT (P pour le passage d’une particule à une antiparticule, T pour le renversement du temps) est un théorème de la théorie quantique des champs. Elle a été vérifiée expérimentalement (2002, sur des neutrinos, avec une extraordinaire précision -10-20).
La violation de la parité P est expliquée par la théorie électrofaible (et vérifiée expérimentalement depuis 1957). La violation de CP est observée depuis 1964 par des
Annexe F Page 25 Révision du 30/10/2013
expériences concernant* des états mélangés de kaons). Un article de « Pour la Science » de 1-99 consacré à l’asymétrie de la matière et décrivant une expérience effectuée sur des kaons semble dire qu’elle apporte un résultat nouveau, que la violation de T y interviendrait « directement ». On constate
une différence de vitesses dans des processus kaons
antikaons versus antikaons kaons. La clé de l’argumentation repose sur l’affirmation : « la transformation d’une particule (un kaon) en une antiparticule (l’antikaon) , et la réaction inverse, la transformation d’un antikaon en kaon, sont l’image l’une de l’autre par l’opérateur T (qui inverse le sens* du temps) ». Je comprends bien que ces deux réactions inversent C, que dans les conditions opératoires décrites, inversant le champ magnétique, elles inversent P; mais, sauf à postuler avec le théorème CPT, que CP = T, je ne vois pas l’intervention « directe » de T. Par ailleurs, un entrefilet plus récent (10-99) de la même revue signale des expériences constatant une violation « directe » de CP sur les kaons (les expériences de 1964 étant considérées comme indirectes, parce qu’ayant observé des combinaisons d’états de kaons). Dois-je comprendre qu’il s’agit d’expériences indépendantes de celles relatées dans le premier article et quelles sont-elles? Par ailleurs, la symétrie CP sur des mésons B serait (2010) violée très au-delà des prévisions du modèle standard.
F11. Théories des cordes (ou supercordes).
Y a-t-il un lien entre la longueur de Planck et la dimension critique des cordes ? (dimension qui ne semble la dépasser que de 10 ou 100). Est-il vrai que la théorie des cordes « parfaite » devrait prédire les valeurs de toutes les constantes fondamentales ?
Annexe F Page 26 Révision du 30/10/2013
Peut-on dire un mot du statut de l’espace-temps dans de telles théories ? Est-il exact qu’il faut renoncer à le voir comme un continu infiniment divisible ?
F12. (= question C10). Théories de l’inflation.
Peut-on expliquer les mécanismes de l’inflation par un recours aux théories classiques des particules ?
F14. Nous l’avons vu, l’incomplétude de la physique quantique s’entend usuellement au sens qu’il n’y a pas de variables cachées. Pour P. Mittelstaedt, une théorie complète serait une théorie qui couvrirait aussi bien le microscopique que les appareils de mesure macroscopiques. Y a-t-il un lien entre ces deux définitions ? Non ?
F15. On dit que dans un supraconducteur, la résistance est nulle. On l’explique par la constitution de paires d’électrons, obéissant à la statistique de Bose-Einstein, se comportant comme un ensemble unique. Vu l’immensité du nombre N de telles paires, peut-on parler de résistance nulle, plutôt que de « inférieure à tel seuil », à préciser ? Que dirait-on si des expériences « méso » permettaient de beaucoup diminuer N ? Mêmes questions pour la viscosité de l’état superfluide. Cf. R. Laughlin, prix Nobel de physique : “The viscosity of superfluid helium is not just small, but exactly zero”. Comment discerner du cas où elle est trop petite pour être observable par nos appareils de mesure actuels ? M. Serrero remarque que même l’horizontalité de la pente d’un diagramme P,V pour une transition de phase liquide-vapeur n’est absolue que si la « règle des phases » est vraie.
Annexe F Page 27 Révision du 30/10/2013
F16. Comment s’exercent les forces de gravitation entre une particule et une anti-particule ?
F17. Dans un article important (1986), J. Bell avait affirmé que les expériences EPR conduisent à admettre que le temps peut aussi aller à reculons, si l’on admet que tous les référentiels de Lorentz sont équivalents, et suggérait qu’il est tout à fait possible de rejeter cette équivalence. Dans mon chapitre 2, je suggère que la cosmologie moderne n’a pas totalement abandonné l’idée de référentiel absolu Cf. ma question E1. Notons aussi que Leggett (dans l’ouvrage collectif « Elegance and Enigma », p 175), préfère accepter le temps à rebours (retrospective causation) à renoncer à la localité ou à cette forme de réalisme, d’après laquelle les expériences non faites auraient un résultat. Où en est-on réellement ?
Références supplémentaires de l’annexe. Aspect, A. (2007), To be or not to be local, in Nature- 446-
p. 866-867. A lire en même temps qu’un autre article p. 871-875 de Gröblacher et als : An experimental test of non-local realism.
Bell, J. (1986), dans “The ghost in the atom”, ed. Davies, R. Article profond !
Bouwmeester et als, Observation of three_Photon GHZ Entanglement, in Phys Rev Letter. 82. P1345-1349.
Collins, G. Supersymmetric QC, in Physics Today, 3-95, p. 17-20.
Décohérence quantique, séminaire Poincaré. 2005. Elegance and Enigma, (2011), ed Schlosshauer. Springer.
Ellis, B. (1966), Basic Concepts of Measurement. Cambridge.
Annexe F Page 28 Révision du 30/10/2013
Foundations of Measurement, (1971), Krantz, D. Luce, R. Suppes, P. Tversky, A. eds.
Lundeen. Phys Rev Letters. 102 (2009). 020404. (sur paradoxe de Hardy).
Maudlin, T. (third edition 2011), Quantum Non-Locality and Relativity. Blackwell.
Witten, E. Reflections on the Fate of Space-Time, in Physics Today, 4-96, p. 24-30.
Duality, Space-time and Quantum Mechanics, in Physics Today, 5-97, p. 28-33.
Annexe F Page 29 Révision du 30/10/2013