"Il est généralement admis que la physique quantique réfute le réalisme, le matérialisme et le déterminisme. Cette croyance, essentielle à l’interprétation dite de Copenhague, était entre autres soutenue par les fondateurs de la physique moderne, en particulier Niels Bohr, Max Born, Werner Heisenberg et Wolfgang Pauli.
L’interprétation en question, concernant
le formalisme mathématique de la physique quantique, repose sur la base
philosophique suivante. D’une part la théorie ne décrirait que des observations
et non des objets naturels ; d’autre part les objets, tout du moins à
l’échelle microscopique, ne seraient que des effets produits par l’observation,
qui à son tour serait le fruit de processus mentaux échappant aux lois de la
nature."
"Aucun de ces inconséquents de berkeleyens (ou
kantiens) n’a remarqué que si l’Univers était mental il n’y aurait pas de
différence entre fait et fiction, que l’humanité préexisterait à l’Univers et
que ce seraient les psychologues, pas les cosmologistes, qui étudieraient le
cosmos – ou peut-être que les cosmologistes pourraient remplacer les
psychologues et les psychiatres. Ils n’ont pas non plus pris conscience du fait
que si l’Univers était mental il penserait par lui-même à lui-même. [...] De
ces opinions extraordinaires, le plus remarquable n’est pas tant qu’elles sont
de pures et simples reformulations de la Weltanschauung la plus primitive, à
savoir l’animisme, qu’on aurait pensé définitivement mis hors jeu par les
présocratiques. Non, le plus saisissant dans ces opinions extravagantes c’est
qu’elles soient exprimées de nos jours et d’autorité, en l’absence de tout
argument solide, exactement comme l’avaient fait Schilling et Schopenhauer deux
siècles auparavant."
"Ce qu’on appelle effet d’observation (observer
effect) consiste en l’affirmation selon laquelle les observateurs ne
trouvent ni n’étudient de choses pourvues de certaines propriétés, mais créent
ces choses qu’ils croient naïvement observer ou du moins créent leurs
propriétés. Ce point de vue est censé cristalliser les mesures et les
expériences propres à la microphysique."
"Par définition, une observation consiste en
la découverte de quelque chose à propos d’une chose préexistante. Il est
certain que certaines observations altèrent dans une certaine mesure les
propriétés de l’objet observé. Par exemple, quand on introduit un thermomètre
dans un corps liquide, on le chauffe ou on le refroidit quelque peu ; de
même la lumière utilisée pour situer un électron altère sa position. Cela dit,
dans les deux cas l’objet observé préexiste à l’observation proprement dite.
Il en va autrement en chimie et en
physique des hautes énergies, en particulier dans un collisionneur. Dans ces
domaines, de nouvelles choses qui n’existaient pas auparavant émergent au même
endroit. Mais ces nouvelles choses, produits d’une réaction, n’apparaissent pas
à partir de rien ni de l’esprit de l’expérimentateur : elles sont le produit
d’interactions entre des choses qui préexistent, si bien que l’expérimentateur
peut alors tenter de réaliser puis de décrire les réactions en question.
Par exemple, lorsqu’on fait entrer en
collision des protons p (les noyaux d’atomes d’hydrogène), un faisceau de protons
engendre des pions (π) négatifs et positifs en accord avec l’équation de
réaction : p + p → p + p + π+ + π–. Les produits sont des choses qui
existaient au départ (les protons) auxquelles s’ajoutent des choses
qualitativement nouvelles (les pions). Cette réaction se produit d’ailleurs
naturellement, comme on l’a découvert en 1947 en exposant en altitude des
plaques photographiques aux rayons cosmiques."
"Pratiquement tous les philosophes, en
particulier les positivistes logiques, ont adopté l’interprétation de
Copenhague. Il n’est pas aisé de remettre en cause la parole de tous ces grands
savants, bien que trois physiciens éminents n’aient jamais accepté cette
doctrine : Max Planck, Albert Einstein et Louis de Broglie. En fait, ces
trois récipiendaires du prix Nobel sont des réalistes cohérents.
Toutefois, aucun philosophe critique ne
doit s’appuyer sur un argument d’autorité (méthode que préfèrent les
théologiens). Il doit examiner la théorie en question avant de se référer à
telle ou telle interprétation de son formalisme mathématique. C’est ce que nous
avons déjà fait. Voici une version mise à jour de mes arguments en faveur du
réalisme.
Rappelons tout d’abord l’idée essentielle
du réalisme : il comporte deux thèses. La première est la thèse ontologique
selon laquelle l’Univers existe indépendamment de tout sujet connaissant ou de
tout observateur (il s’agit du réalisme ontologique). La seconde recouvre le
postulat épistémologique selon lequel un sujet peut connaître l’Univers
objectivement, comme à la troisième personne, du moins de façon graduelle.
Voici deux arguments en faveur du
réalisme. En premier lieu, quiconque s’efforce d’étudier quelque chose peut
douter de l’existence réelle de telle ou telle chose, mais pas de son
environnement dans son ensemble, en particulier son laboratoire et les
instruments qui s’y trouvent. Par exemple, si un expérimentateur souhaite
vérifier si un hypothétique objet X existe en dehors de son esprit, il concevra
une expérience montrant que X altère l’état d’un second objet Y dont
l’existence est hors de doute, sans quoi on tomberait dans un scepticisme si
radical qu’il rendrait toute recherche caduque.
En second lieu, tout sujet connaissant est
né et a été élevé dans un environnement qui lui préexiste et qui est le produit
de processus naturels et sociaux, cette évolution ayant pris des millions
d’années. Les philosophes subjectivistes comme Kant pensaient que l’Univers
était un ensemble d’apparences (à un sujet) et qu’espace et temps n’existaient
que dans l’esprit d’un sujet. Ces opinions ne sont pas incohérentes qu’avec la
physique, mais aussi avec tout ce qu’on sait de l’ontogenèse (le développement
d’un individu) et de la phylogénie (l’évolution) des humains."
"En physique classique, toutes les propriétés
sont précises : tant de kilogrammes, tant de kilomètres par heure, etc.
Or, les grandeurs des objets quantiques n’ont pas toujours une valeur précise.
Par exemple, dans la plupart des cas, un électron n’est pas une particule
ponctuelle. Au contraire, il existe une certaine probabilité de le trouver dans
telle portion de l’espace, probabilité qui diffère de la portion voisine, etc.
C’est-à-dire que la position de l’électron est une distribution – si l’on
préfère, elle est une superposition (au sens d’une combinaison linéaire) de
positions.
Il en va de même pour les autres grandeurs
dynamiques des objets quantiques : l’impulsion, le moment angulaire, le
spin et l’énergie. Par exemple, l’état d’un objet quantique, caractérisé par
son énergie, est en général une superposition d’états élémentaires (les états
propres), chacun caractérisé par une valeur précise de leur énergie.
Seuls le temps, la masse et la charge
électrique ne sont pas intrinsèquement dispersés. C’est cette dispersion qu’on
appelle habituellement « indétermination » ou
« incertitude ». Cette absence de dispersion est aussi vraie des
variables macroscopiques telles que la contrainte, la température ou
l’entropie : toutes prennent une valeur bien définie à un instant donné.
Cela étant dit, la question de savoir si l’ensemble de l’Univers est dans une
superposition d’états, ainsi que l’ont supposé Hawking et Mlodinow, est un aux
problème. La raison à cela réside dans le fait que personne ne sera jamais
capable d’écrire une équation d’état pour l’Univers ni de mener une expérience
qui teste cette hypothèse digne de la science-fiction. Le fait d’écrire des
symboles censés désigner les vecteurs d’état de l’Univers relève de la prestidigitation,
c’est du vent.
Nous disions qu’un électron est le plus
souvent dans une superposition d’états élémentaires. Cependant, s’il interagit
avec son environnement, cette distribution peut se contracter une infime
portion de l’espace modélisable par un point. Il s’agit de ce qu’on a longtemps
appelé « effondrement » (collapse) (ou « projection ») de
son vecteur d’état, le célèbre ψ. De nos jours, on désigne ce processus par le
terme de décohérence. Cette contraction du nuage de probabilité peut se
produire naturellement, comme quand un électron est contraint de traverser une
fente minuscule. C’est aussi ce qui arrive quand on mesure très précisément la
position d’un électron. Ce processus apparaît de façon similaire avec les
autres propriétés des quantons ou objets quantiques, petits ou gros. À ce
propos, Marcello Cini et d’autres ont proposé de façon convaincante que ce
n’était pas un effondrement instantané, mais une contraction plus ou moins
rapide suite à l’interaction d’un quanton et d’un objet macroscopique.
Ce qui compte philosophiquement, c’est que
le processus de décohérence (ou de projection) est purement physique, même sous
contrôle expérimental. Un observateur peut concevoir et mener des expériences,
mais son esprit ne peut pas agir directement sur quoi que ce soit."
"Une analyse sémantique des concepts de base
de la théorie quantique, tels que l’opérateur énergie (l’hamiltonien) et le
vecteur d’état (la fonction d’onde), montre qu’elle n’exhibe aucune variable se
référant à un observateur. Par exemple, pour l’atome d’hydrogène, le plus
simple de systèmes quantiques, l’hamiltonien se réduit à l’énergie cinétique
plus l’énergie électrostatique de son électron. Cela suffit à calculer tous les
niveaux d’énergie possibles pour l’atome en question, ainsi que les fonctions
d’état élémentaires correspondants (les fonctions propres) – et bien plus.
L’expérimentateur et les instruments qu’il
emploie pour exciter l’atome puis mesurer la longueur d’onde de la lumière
émise par l’atome quand il se désexcite sont dans le laboratoire, mais n’ont
pas de représentation dans la théorie de l’atome. Il s’ensuit que l’affirmation
standard selon laquelle la théorie en question décrit des opérations de
laboratoire est absolument fausse. Pour décrire de telles opérations il faut
analyser les instruments de mesure correspondants, tous étant macroscopiques, à
l’aide de la physique classique, de même que les indicateurs associés [...]
La conséquence d’une telle analyse, c’est
un riche éventail de théories spécifiques. Il y a autant de théories
instrumentales qu’il y a d’instruments : la théorie du pendule simple pour
mesurer l’accélération de la gravité, la théorie du galvanomètre pour mesure
l’intensité des courants électriques, la théorie du spectromètre de masse pour
mesurer les masses atomiques et moléculaires, etc. D’ailleurs on remarquera au
passage que la grande majorité de ces théories instrumentales sont fondées sur
des théories classiques plus générales, comme l’optique ondulatoire, qui ne
connaît pas les photons. En conclusion, ni les théories instrumentales ni les
théories quantiques substantielles, comme celles pour l’électron, ne se
réfèrent à l’observateur : toutes sont strictement physiques.
Remarquons que cette conclusion ne peut
être réduite à une fantaisie philosophique arbitraire : elle dérive d’un
examen des variables intervenant dans les théories dont il est ici question. À
l’opposé, la thèse subjectiviste selon laquelle la théorie quantique n’est rien
d’autre qu’une description des apparences auxquelles l’observateur est sujet,
est une affirmation sans fondement philosophique. Cette thèse est éhontément
fausse parce que, comme l’a avancé Galilée il y a quatre siècles, la physique
ne dit rien des propriétés secondaires comme les couleurs, les odeurs, les
goûts et les textures. Toutes ces propriétés, les qualia, émergent du cerveau,
normalement en réponse à des stimuli physiques caractérisés par des propriétés
primaires comme l’extension, la durée, la masse ou l’acidité. Par ailleurs,
cette thèse est une transposition du phénoménalisme soutenu par Berkeley, Hume,
Kant, Mill, Comte, Mach et le Cercle de Vienne.
Si l’interprétation phénoménaliste (ou
positiviste) de la théorie quantique était correcte, elle ne décrirait que des
processus mentaux. Alors ce serait un sous-domaine de la psychologie, pas de la
physique, et la physique ne serait pas jalousée par les psychologues."
"Dans leur célèbre critique de la mécanique
quantique, Einstein, Podolsky et Rosen ont mis en avant une conséquence de
cette théorie qui fut plus tard appelée intrication [quantique]. On peut,
fondamentalement, l’expliquer ainsi : si deux quantons ou plus constituent
initialement un système, ils perdent leur individualité et semblent continuer
d’être unis même après avoir été éloignés les uns des autres.
Par exemple, supposons deux quantons de la
même classe, deux électrons ou deux photons par exemple, formant ensemble un
système d’énergie totale E. Plus tard, soit naturellement soit
expérimentalement, les deux composantes du système se retrouvent spatialement
séparées. Plus particulièrement, on peut imaginer qu’elles voyagent dans des
directions opposées à leur apparition, comme c’est le cas pour les paires de
photons émis par un atome qui se désexcite vers un niveau d’énergie plus bas.
L’énergie totale ne change pas, mais est alors distribuée aléatoirement dans
les deux composantes du système de sorte qu’aucune des deux n’a une énergie de
valeur précisément définie. En d’autres termes, chaque composante se trouve
dans une superposition, ou combinaison linéaire, d’états élémentaires (les
valeurs propres) ; à leur tour les deux vecteurs d’état sont mutuellement
intriqués. L’intrication peut être vue comme un cas particulier de
superposition. Corrélativement, on peut envisager de voir toute superposition
comme cas particulier d’intrication.
Notre propos se poursuit alors avec la
désintrication, comme la superposition ou la cohérence se poursuivait avec la
décohérence ou la projection. En effet, tôt ou tard, l’une des composantes du
système, à qui nous pourrions donner le numéro 1, interagit avec un système
macroscopique qui peut être (mais ce n’est pas nécessaire) un appareil de mesure.
Quand ceci se produit, l’état superposé est projeté sur l’un des états
élémentaires qui correspond à une valeur E1 de son énergie. C’est-à-dire que la
composante numéro 1 a alors acquis une nouvelle propriété : non celle de
posséder une énergie (elle en avait déjà une), mais celle d’avoir une énergie
précisément quantifiable plutôt qu’une valeur floue. Et la composante 1 a
acquis cette propriété parce qu’elle a interagi avec un objet macroscopique et
non parce qu’elle a été l’objet d’une observation, le processus lui-même
pouvant être automatisé de sorte qu’il puisse se produire même en l’absence
d’observateur. Et voici ce qui est le plus étonnant : quand la
distribution d’énergie de la composante 1 se contracte pour prendre la valeur
E1, celle de la composante 2 se contracte aussi et prend la valeur E2, telle
que E1 + E2 = E.
La conséquence de tout cela est la
désintrication des deux composantes qui ne forment alors plus un système. De
plus, la désintrication se produit indépendamment de la distance qui peut
séparer les deux composantes et en l’absence de signal transmis de l’une à
l’autre. La distance maximale atteinte jusqu’à présent est de 150 kilomètres,
distance séparant deux observatoires situés sur deux des îles Canaries.
Einstein, Podolsky et Rosen estimaient que
l’intrication s’avérait être « une action effrayante à grande
distance ». En fait, il se peut qu’il ne s’agisse pas d’action, puisque ni
l’expérience ni la théorie ne mettent en jeu de signaux ou de forces entre les
composantes du système. Ils crurent aussi que cela, ainsi que d’autres
résultats contre-intuitifs de la mécanique quantique, empêchaient toute
« définition raisonnable de la réalité ». C’est pourquoi ils
jugeaient cette théorie irréaliste. Or un demi-siècle plus tard, quand Alain
Aspect a prouvé la réalité de l’intrication, la très grande revue Science a
déclaré que le réalisme avait été réfuté.
Tout au long de cette crise, les
physiciens se sont tacitement appuyés sur un critère de réalité qui,
contrairement à celui d’Einstein, Podolsky et Rosen, n’était pas enraciné dans
la mécanique classique. Je propose de présenter grossièrement ce critère
alternatif comme suit. Soient a et b les noms de deux objets différents et
supposons que a s’avère réel à un instant t. Alors b aussi sera considéré réel
à l’instant t si et seulement si soit a agit sur b, soit b agit sur a à un
instant quelconque. Il faut préciser qu’il s’agit là d’un critère, non d’une
définition et qu’il mériterait d’être raffiné pour prendre en compte la
contrainte relativiste de l’invariance de Lorentz.
Il est de nos jours d’usage de soutenir
que « le réalisme local est indéfendable ». Ce n’est que pure
confusion. Ce qui est indéfendable, c’est d’appeler « réalisme
local » ce qui n’est que l’hypothèse de la physique classique selon
laquelle tout changement est local ou se propage par contact, de sorte que le
concept de localité puisse être découplé de celui de globalité. Quiconque
réfute le « réalisme local » devrait admettre un « réalisme
global ». Quoi qu’il en soit, il vaut mieux oublier cet oxymore de
« réalisme local ».
Permettez-moi d’insister. Il est absurde
d’affirmer que « le réalisme local est indéfendable », puisque ce qui
a été expérimentalement réfuté n’est pas le réalisme philosophique, mais
l’hypothèse physique de séparabilité selon laquelle ce qui lie deux quelconques
choses s’affaiblit à mesure que la distance les séparant s’accroît, jusqu’au
point où ils peuvent être considérés comme indépendants l’un de l’autre . S’il
s’agit de quantons, une fois unis, ils restent corrélés quelle que soit leur
distance.
Si nous devions abandonner le réalisme
authentique – c’est-à-dire le principe selon lequel les objets physiques
existent hors de l’esprit du sujet –, on n’aurait besoin d’aucune expérience
pour découvrir comment est le monde : il suffirait de demander son opinion
à notre gourou de prédilection ou même de pratiquer l’introspection.
À mon avis, à la fois Einstein et les
fidèles de Copenhague avaient tort à ce propos. Einstein se trompait en croyant
que la réalité physique était classique et Bohr en rejetant le réalisme
philosophique. Le succès sensationnel de la théorie quantique prouve à la fois
qu’elle est réaliste et que la réalité n’est pas classique. En résumé, réalité
≠ classicisme.
Le fait que la théorie quantique soit
contre-intuitive et non classique relève de l’évidence, mais n’est pas
pertinent. Par exemple il n’y a pas dans cette théorie de variable de position,
c’est-à-dire de fonction qui à tout point de l’espace associe un quanton à tout
instant. Einstein pensait qu’une position précise et la trajectoire précise
associée formaient des « éléments de réalité », de sorte que leur
absence dans la mécanique quantique était une preuve de son caractère
incomplet.
Cette objection a conduit à la conception
de théories à « variables cachées » telles que celle de David Bohm ou
au théorème de Bell (par définition une variable cachée n’a pas
d’« indétermination » ou fluctuation intrinsèque). John Bell a
démontré en 1966 que toute théorie impliquant des variables cachées devait
satisfaire certaines inégalités (qui portent son nom) qu’on peut empiriquement
tester .
Une série d’expériences, comme celles
d’Alain Aspect en 1982 , a réfuté les inégalités de Bell et ainsi toute la
famille des théories à variables cachées. Il est alors allé de soi que toute
violation des inégalités de Bell confirme la mécanique quantique (en général la
réfutation de p est corrélée à la confirmation de non-p ; aussi, n’en
déplaise à Popper, la réfutation n’est pas plus forte que la confirmation).
D’un autre côté, un nombre immensément plus grand et plus varié d’expériences
menées pendant près d’un siècle a montré que la théorie quantique est la plus
précise des théories physiques."
"Le scepticisme de Stephen Hawking à propos de
la réalité est du même ordre. Il déclare que les scientifiques jugent qu’un
objet X est réel si un modèle de X concorde avec l’observation. En conséquence
de quoi il ajoute que tout ce que l’on peut dire c’est que la réalité est
soumise aux modèles. Mais cette conclusion ne tient que si l’on confond réalité
et vérité, puisque la confirmation empirique d’un modèle conceptuel de X amène
seulement à penser que le modèle est vrai, non que X est objectivement réel.
Par exemple, un modèle psychologique des illusions d’optique peut être vrai
alors même que ces illusions, bien que réelles, ne sont pas objectives
puisqu’elles se produisent dans la tête d’un sujet.
Ajoutons à cela qu’un modèle peut tout à
fait s’accorder aux données tout en s’appuyant sur une entité postulée
irréelle, comme ce fut le cas en optique ondulatoire qui impliquait
l’imaginaire éther. Seules les fictions, comme les contes de fées ou les objets
mathématiques, sont soumises à des modèles ; les choses réelles, par
définition, existent indépendamment de tout modèle."
"Le matérialisme est la famille d’ontologies
qui soutiennent que l’Univers est matériel. La plupart des matérialistes
admettent la réalité du mental, mais ils déclarent que, bien loin d’être
immatériel, tout processus mental est un processus cérébral. [...]
L’idéalisme quantique est le plus
fantaisiste et le plus « tendance » des membres du camp
immatérialiste. [...]
L’opinion selon laquelle la théorie
quantique réfuterait le matérialisme découle de son interprétation subjectiviste
conjointement au fait que cette théorie n’astreint pas ses objets à ne pas
s’interpénétrer, comme les corps étudiés par la mécanique classique. Pourtant,
l’optique, née dans l’Antiquité, traite de choses sans masse ni solidité, à
savoir les faisceaux lumineux. Les philosophes modernes n’ont pas saisi cette
généralisation tacite de la notion de matière. Même le grand Bertrand Russell
pensait que l’impénétrabilité était ce qui définissait la matière.
Une autre croyance populaire veut que la
physique quantique soit non déterministe parce que ses lois fondamentales sont
probabilistes. Cette option ne tient pas, même si l’on se contente de la
version laplacienne du déterminisme, puisqu’elle est invalide dans le cas d’une
collection de billes. En effet Ludwig Boltzmann a montré il y a plus d’un
siècle que dans ce cas le hasard objectif et la causalité allaient de pair. Et
ceci nous renvoie à la mécanique statistique, dans laquelle les concepts de
probabilité et d’aléatoire sont primordiaux.
La physique statistique et la physique
quantique invitent toutes les deux à élaborer une conception plus large et plus
subtile du déterminisme. Cette conception doit converger vers l’association de
deux principes : l’existence de lois (causales, probabilistes ou mixtes)
et la conservation de la matière (et non celle de la masse).
Les théories quantiques satisfont à cette
version évoluée du déterminisme en ce qu’elles reposent sur des lois et des
principes de conservation (ou plutôt des théorèmes). Le principe d’existence de
lois contrevient à l’idée que tout ce qui est imaginable puisse arriver
réellement – rappel de la tristement célèbre maxime de Paul Feyerabend
« tout est bon ». Par exemple, l’énergie ne peut être émise ou
absorbée en des quantités arbitraires.
Et les lois de conservation, classiques ou
quantiques, contreviennent à l’idée que la matière peut apparaître à partir de
rien. D’ailleurs, toutes les lois de conservation ne sont pas probabilistes.
Par exemple, la conservation du moment angulaire (moment orbital plus spin)
d’une particule plongée dans un champ de force centrale est vraie à tout instant,
pas seulement en moyenne.
En résumé, la physique quantique n’a pas
tué le déterminisme ; elle en a seulement suscité une redéfinition."
"Quant à la limite de notre capacité à savoir,
elle serait inhérente à la formulation première du fameux « principe
d’incertitude » de Heisenberg, à savoir l’impossibilité de connaître en
même temps la position précise et l’impulsion précise d’un électron. Mais cette
formulation est incorrecte puisque les prémisses qui conduisent à ce théorème
n’impliquent jamais le concept de connaissance ; elles ne parlent que de
quantons. Ce que dit le théorème d’Heisenberg, c’est que les électrons et
apparentés n’ont pas simultanément une position et une impulsion précises. Et
il est bien raisonnable de dire qu’on ne peut pas connaître quelque chose qui
n’existe pas. Ainsi et contrairement à la revendication d’Heisenberg, la
théorie quantique ne parle pas de notre connaissance de la nature : elle fait
partie de la physique, pas de l’épistémologie ni des sciences cognitives.
En somme, l’avènement de la théorie
quantique aura été une victoire de la rationalité et un immense apport à la
connaissance humaine."
"Si l’on débarrasse la théorie quantique de
ses appendices philosophiques, on se rend compte qu’elle est tout aussi
réaliste, matérialiste et déterministe que la physique classique. Ce qui est
vrai c’est qu’elle nous oblige à réviser notre ontologie et en particulier à
élargir les concepts de matière et de détermination, à affaiblir les concepts
de forme et d’individualité et à renforcer le principe d’approche systémique, à
cause de l’ubiquité de l’intrication et de la cohérence."
-Mario Bunge (Philosophe et physicien argentin, professeur émérite de logique et de métaphysique à l’université McGill de Montréal) "La physique quantique réfute-t-elle le réalisme, le matérialisme et le déterminisme ?", Chapitre 13 in Marc Silberstein (dir.), Matériaux philosophiques et scientifiques pour un matérialisme contemporain, volume 1, Éditions Matériologiques, Paris, 2016.
Aucun commentaire:
Enregistrer un commentaire