mardi 10 janvier 2023

La physique quantique réfute-t-elle le réalisme, le matérialisme et le déterminisme ?

"Il est généralement admis que la physique quantique réfute le réalisme, le matérialisme et le déterminisme. Cette croyance, essentielle à l’interprétation dite de Copenhague, était entre autres soutenue par les fondateurs de la physique moderne, en particulier Niels Bohr, Max Born, Werner Heisenberg et Wolfgang Pauli.

L’interprétation en question, concernant le formalisme mathématique de la physique quantique, repose sur la base philosophique suivante. D’une part la théorie ne décrirait que des observations et non des objets naturels ; d’autre part les objets, tout du moins à l’échelle microscopique, ne seraient que des effets produits par l’observation, qui à son tour serait le fruit de processus mentaux échappant aux lois de la nature."

"Aucun de ces inconséquents de berkeleyens (ou kantiens) n’a remarqué que si l’Univers était mental il n’y aurait pas de différence entre fait et fiction, que l’humanité préexisterait à l’Univers et que ce seraient les psychologues, pas les cosmologistes, qui étudieraient le cosmos – ou peut-être que les cosmologistes pourraient remplacer les psychologues et les psychiatres. Ils n’ont pas non plus pris conscience du fait que si l’Univers était mental il penserait par lui-même à lui-même. [...] De ces opinions extraordinaires, le plus remarquable n’est pas tant qu’elles sont de pures et simples reformulations de la Weltanschauung la plus primitive, à savoir l’animisme, qu’on aurait pensé définitivement mis hors jeu par les présocratiques. Non, le plus saisissant dans ces opinions extravagantes c’est qu’elles soient exprimées de nos jours et d’autorité, en l’absence de tout argument solide, exactement comme l’avaient fait Schilling et Schopenhauer deux siècles auparavant."

"Ce qu’on appelle effet d’observation (observer effect) consiste en l’affirmation selon laquelle les observateurs ne trouvent ni n’étudient de choses pourvues de certaines propriétés, mais créent ces choses qu’ils croient naïvement observer ou du moins créent leurs propriétés. Ce point de vue est censé cristalliser les mesures et les expériences propres à la microphysique."

"Par définition, une observation consiste en la découverte de quelque chose à propos d’une chose préexistante. Il est certain que certaines observations altèrent dans une certaine mesure les propriétés de l’objet observé. Par exemple, quand on introduit un thermomètre dans un corps liquide, on le chauffe ou on le refroidit quelque peu ; de même la lumière utilisée pour situer un électron altère sa position. Cela dit, dans les deux cas l’objet observé préexiste à l’observation proprement dite.

Il en va autrement en chimie et en physique des hautes énergies, en particulier dans un collisionneur. Dans ces domaines, de nouvelles choses qui n’existaient pas auparavant émergent au même endroit. Mais ces nouvelles choses, produits d’une réaction, n’apparaissent pas à partir de rien ni de l’esprit de l’expérimentateur : elles sont le produit d’interactions entre des choses qui préexistent, si bien que l’expérimentateur peut alors tenter de réaliser puis de décrire les réactions en question.

Par exemple, lorsqu’on fait entrer en collision des protons p (les noyaux d’atomes d’hydrogène), un faisceau de protons engendre des pions (π) négatifs et positifs en accord avec l’équation de réaction : p + p → p + p + π+ + π–. Les produits sont des choses qui existaient au départ (les protons) auxquelles s’ajoutent des choses qualitativement nouvelles (les pions). Cette réaction se produit d’ailleurs naturellement, comme on l’a découvert en 1947 en exposant en altitude des plaques photographiques aux rayons cosmiques."

"Pratiquement tous les philosophes, en particulier les positivistes logiques, ont adopté l’interprétation de Copenhague. Il n’est pas aisé de remettre en cause la parole de tous ces grands savants, bien que trois physiciens éminents n’aient jamais accepté cette doctrine : Max Planck, Albert Einstein et Louis de Broglie. En fait, ces trois récipiendaires du prix Nobel sont des réalistes cohérents.

Toutefois, aucun philosophe critique ne doit s’appuyer sur un argument d’autorité (méthode que préfèrent les théologiens). Il doit examiner la théorie en question avant de se référer à telle ou telle interprétation de son formalisme mathématique. C’est ce que nous avons déjà fait. Voici une version mise à jour de mes arguments en faveur du réalisme.

Rappelons tout d’abord l’idée essentielle du réalisme : il comporte deux thèses. La première est la thèse ontologique selon laquelle l’Univers existe indépendamment de tout sujet connaissant ou de tout observateur (il s’agit du réalisme ontologique). La seconde recouvre le postulat épistémologique selon lequel un sujet peut connaître l’Univers objectivement, comme à la troisième personne, du moins de façon graduelle.

Voici deux arguments en faveur du réalisme. En premier lieu, quiconque s’efforce d’étudier quelque chose peut douter de l’existence réelle de telle ou telle chose, mais pas de son environnement dans son ensemble, en particulier son laboratoire et les instruments qui s’y trouvent. Par exemple, si un expérimentateur souhaite vérifier si un hypothétique objet X existe en dehors de son esprit, il concevra une expérience montrant que X altère l’état d’un second objet Y dont l’existence est hors de doute, sans quoi on tomberait dans un scepticisme si radical qu’il rendrait toute recherche caduque.

En second lieu, tout sujet connaissant est né et a été élevé dans un environnement qui lui préexiste et qui est le produit de processus naturels et sociaux, cette évolution ayant pris des millions d’années. Les philosophes subjectivistes comme Kant pensaient que l’Univers était un ensemble d’apparences (à un sujet) et qu’espace et temps n’existaient que dans l’esprit d’un sujet. Ces opinions ne sont pas incohérentes qu’avec la physique, mais aussi avec tout ce qu’on sait de l’ontogenèse (le développement d’un individu) et de la phylogénie (l’évolution) des humains."

"En physique classique, toutes les propriétés sont précises : tant de kilogrammes, tant de kilomètres par heure, etc. Or, les grandeurs des objets quantiques n’ont pas toujours une valeur précise. Par exemple, dans la plupart des cas, un électron n’est pas une particule ponctuelle. Au contraire, il existe une certaine probabilité de le trouver dans telle portion de l’espace, probabilité qui diffère de la portion voisine, etc. C’est-à-dire que la position de l’électron est une distribution – si l’on préfère, elle est une superposition (au sens d’une combinaison linéaire) de positions.

Il en va de même pour les autres grandeurs dynamiques des objets quantiques : l’impulsion, le moment angulaire, le spin et l’énergie. Par exemple, l’état d’un objet quantique, caractérisé par son énergie, est en général une superposition d’états élémentaires (les états propres), chacun caractérisé par une valeur précise de leur énergie.

Seuls le temps, la masse et la charge électrique ne sont pas intrinsèquement dispersés. C’est cette dispersion qu’on appelle habituellement « indétermination » ou « incertitude ». Cette absence de dispersion est aussi vraie des variables macroscopiques telles que la contrainte, la température ou l’entropie : toutes prennent une valeur bien définie à un instant donné. Cela étant dit, la question de savoir si l’ensemble de l’Univers est dans une superposition d’états, ainsi que l’ont supposé Hawking et Mlodinow, est un aux problème. La raison à cela réside dans le fait que personne ne sera jamais capable d’écrire une équation d’état pour l’Univers ni de mener une expérience qui teste cette hypothèse digne de la science-fiction. Le fait d’écrire des symboles censés désigner les vecteurs d’état de l’Univers relève de la prestidigitation, c’est du vent.

Nous disions qu’un électron est le plus souvent dans une superposition d’états élémentaires. Cependant, s’il interagit avec son environnement, cette distribution peut se contracter une infime portion de l’espace modélisable par un point. Il s’agit de ce qu’on a longtemps appelé « effondrement » (collapse) (ou « projection ») de son vecteur d’état, le célèbre ψ. De nos jours, on désigne ce processus par le terme de décohérence. Cette contraction du nuage de probabilité peut se produire naturellement, comme quand un électron est contraint de traverser une fente minuscule. C’est aussi ce qui arrive quand on mesure très précisément la position d’un électron. Ce processus apparaît de façon similaire avec les autres propriétés des quantons ou objets quantiques, petits ou gros. À ce propos, Marcello Cini et d’autres ont proposé de façon convaincante que ce n’était pas un effondrement instantané, mais une contraction plus ou moins rapide suite à l’interaction d’un quanton et d’un objet macroscopique.

Ce qui compte philosophiquement, c’est que le processus de décohérence (ou de projection) est purement physique, même sous contrôle expérimental. Un observateur peut concevoir et mener des expériences, mais son esprit ne peut pas agir directement sur quoi que ce soit."

"Une analyse sémantique des concepts de base de la théorie quantique, tels que l’opérateur énergie (l’hamiltonien) et le vecteur d’état (la fonction d’onde), montre qu’elle n’exhibe aucune variable se référant à un observateur. Par exemple, pour l’atome d’hydrogène, le plus simple de systèmes quantiques, l’hamiltonien se réduit à l’énergie cinétique plus l’énergie électrostatique de son électron. Cela suffit à calculer tous les niveaux d’énergie possibles pour l’atome en question, ainsi que les fonctions d’état élémentaires correspondants (les fonctions propres) – et bien plus.

L’expérimentateur et les instruments qu’il emploie pour exciter l’atome puis mesurer la longueur d’onde de la lumière émise par l’atome quand il se désexcite sont dans le laboratoire, mais n’ont pas de représentation dans la théorie de l’atome. Il s’ensuit que l’affirmation standard selon laquelle la théorie en question décrit des opérations de laboratoire est absolument fausse. Pour décrire de telles opérations il faut analyser les instruments de mesure correspondants, tous étant macroscopiques, à l’aide de la physique classique, de même que les indicateurs associés [...]

La conséquence d’une telle analyse, c’est un riche éventail de théories spécifiques. Il y a autant de théories instrumentales qu’il y a d’instruments : la théorie du pendule simple pour mesurer l’accélération de la gravité, la théorie du galvanomètre pour mesure l’intensité des courants électriques, la théorie du spectromètre de masse pour mesurer les masses atomiques et moléculaires, etc. D’ailleurs on remarquera au passage que la grande majorité de ces théories instrumentales sont fondées sur des théories classiques plus générales, comme l’optique ondulatoire, qui ne connaît pas les photons. En conclusion, ni les théories instrumentales ni les théories quantiques substantielles, comme celles pour l’électron, ne se réfèrent à l’observateur : toutes sont strictement physiques.

Remarquons que cette conclusion ne peut être réduite à une fantaisie philosophique arbitraire : elle dérive d’un examen des variables intervenant dans les théories dont il est ici question. À l’opposé, la thèse subjectiviste selon laquelle la théorie quantique n’est rien d’autre qu’une description des apparences auxquelles l’observateur est sujet, est une affirmation sans fondement philosophique. Cette thèse est éhontément fausse parce que, comme l’a avancé Galilée il y a quatre siècles, la physique ne dit rien des propriétés secondaires comme les couleurs, les odeurs, les goûts et les textures. Toutes ces propriétés, les qualia, émergent du cerveau, normalement en réponse à des stimuli physiques caractérisés par des propriétés primaires comme l’extension, la durée, la masse ou l’acidité. Par ailleurs, cette thèse est une transposition du phénoménalisme soutenu par Berkeley, Hume, Kant, Mill, Comte, Mach et le Cercle de Vienne.

Si l’interprétation phénoménaliste (ou positiviste) de la théorie quantique était correcte, elle ne décrirait que des processus mentaux. Alors ce serait un sous-domaine de la psychologie, pas de la physique, et la physique ne serait pas jalousée par les psychologues."

"Dans leur célèbre critique de la mécanique quantique, Einstein, Podolsky et Rosen  ont mis en avant une conséquence de cette théorie qui fut plus tard appelée intrication [quantique]. On peut, fondamentalement, l’expliquer ainsi : si deux quantons ou plus constituent initialement un système, ils perdent leur individualité et semblent continuer d’être unis même après avoir été éloignés les uns des autres.

Par exemple, supposons deux quantons de la même classe, deux électrons ou deux photons par exemple, formant ensemble un système d’énergie totale E. Plus tard, soit naturellement soit expérimentalement, les deux composantes du système se retrouvent spatialement séparées. Plus particulièrement, on peut imaginer qu’elles voyagent dans des directions opposées à leur apparition, comme c’est le cas pour les paires de photons émis par un atome qui se désexcite vers un niveau d’énergie plus bas. L’énergie totale ne change pas, mais est alors distribuée aléatoirement dans les deux composantes du système de sorte qu’aucune des deux n’a une énergie de valeur précisément définie. En d’autres termes, chaque composante se trouve dans une superposition, ou combinaison linéaire, d’états élémentaires (les valeurs propres) ; à leur tour les deux vecteurs d’état sont mutuellement intriqués. L’intrication peut être vue comme un cas particulier de superposition. Corrélativement, on peut envisager de voir toute superposition comme cas particulier d’intrication.

Notre propos se poursuit alors avec la désintrication, comme la superposition ou la cohérence se poursuivait avec la décohérence ou la projection. En effet, tôt ou tard, l’une des composantes du système, à qui nous pourrions donner le numéro 1, interagit avec un système macroscopique qui peut être (mais ce n’est pas nécessaire) un appareil de mesure. Quand ceci se produit, l’état superposé est projeté sur l’un des états élémentaires qui correspond à une valeur E1 de son énergie. C’est-à-dire que la composante numéro 1 a alors acquis une nouvelle propriété : non celle de posséder une énergie (elle en avait déjà une), mais celle d’avoir une énergie précisément quantifiable plutôt qu’une valeur floue. Et la composante 1 a acquis cette propriété parce qu’elle a interagi avec un objet macroscopique et non parce qu’elle a été l’objet d’une observation, le processus lui-même pouvant être automatisé de sorte qu’il puisse se produire même en l’absence d’observateur. Et voici ce qui est le plus étonnant : quand la distribution d’énergie de la composante 1 se contracte pour prendre la valeur E1, celle de la composante 2 se contracte aussi et prend la valeur E2, telle que E1 + E2 = E.

La conséquence de tout cela est la désintrication des deux composantes qui ne forment alors plus un système. De plus, la désintrication se produit indépendamment de la distance qui peut séparer les deux composantes et en l’absence de signal transmis de l’une à l’autre. La distance maximale atteinte jusqu’à présent est de 150 kilomètres, distance séparant deux observatoires situés sur deux des îles Canaries.

Einstein, Podolsky et Rosen estimaient que l’intrication s’avérait être « une action effrayante à grande distance ». En fait, il se peut qu’il ne s’agisse pas d’action, puisque ni l’expérience ni la théorie ne mettent en jeu de signaux ou de forces entre les composantes du système. Ils crurent aussi que cela, ainsi que d’autres résultats contre-intuitifs de la mécanique quantique, empêchaient toute « définition raisonnable de la réalité ». C’est pourquoi ils jugeaient cette théorie irréaliste. Or un demi-siècle plus tard, quand Alain Aspect a prouvé la réalité de l’intrication, la très grande revue Science a déclaré que le réalisme avait été réfuté.

Tout au long de cette crise, les physiciens se sont tacitement appuyés sur un critère de réalité qui, contrairement à celui d’Einstein, Podolsky et Rosen, n’était pas enraciné dans la mécanique classique. Je propose de présenter grossièrement ce critère alternatif comme suit. Soient a et b les noms de deux objets différents et supposons que a s’avère réel à un instant t. Alors b aussi sera considéré réel à l’instant t si et seulement si soit a agit sur b, soit b agit sur a à un instant quelconque. Il faut préciser qu’il s’agit là d’un critère, non d’une définition et qu’il mériterait d’être raffiné pour prendre en compte la contrainte relativiste de l’invariance de Lorentz.

Il est de nos jours d’usage de soutenir que « le réalisme local est indéfendable ». Ce n’est que pure confusion. Ce qui est indéfendable, c’est d’appeler « réalisme local » ce qui n’est que l’hypothèse de la physique classique selon laquelle tout changement est local ou se propage par contact, de sorte que le concept de localité puisse être découplé de celui de globalité. Quiconque réfute le « réalisme local » devrait admettre un « réalisme global ». Quoi qu’il en soit, il vaut mieux oublier cet oxymore de « réalisme local ».

Permettez-moi d’insister. Il est absurde d’affirmer que « le réalisme local est indéfendable », puisque ce qui a été expérimentalement réfuté n’est pas le réalisme philosophique, mais l’hypothèse physique de séparabilité selon laquelle ce qui lie deux quelconques choses s’affaiblit à mesure que la distance les séparant s’accroît, jusqu’au point où ils peuvent être considérés comme indépendants l’un de l’autre . S’il s’agit de quantons, une fois unis, ils restent corrélés quelle que soit leur distance.

Si nous devions abandonner le réalisme authentique – c’est-à-dire le principe selon lequel les objets physiques existent hors de l’esprit du sujet –, on n’aurait besoin d’aucune expérience pour découvrir comment est le monde : il suffirait de demander son opinion à notre gourou de prédilection ou même de pratiquer l’introspection.

À mon avis, à la fois Einstein et les fidèles de Copenhague avaient tort à ce propos. Einstein se trompait en croyant que la réalité physique était classique et Bohr en rejetant le réalisme philosophique. Le succès sensationnel de la théorie quantique prouve à la fois qu’elle est réaliste et que la réalité n’est pas classique. En résumé, réalité ≠ classicisme.

Le fait que la théorie quantique soit contre-intuitive et non classique relève de l’évidence, mais n’est pas pertinent. Par exemple il n’y a pas dans cette théorie de variable de position, c’est-à-dire de fonction qui à tout point de l’espace associe un quanton à tout instant. Einstein pensait qu’une position précise et la trajectoire précise associée formaient des « éléments de réalité », de sorte que leur absence dans la mécanique quantique était une preuve de son caractère incomplet.

Cette objection a conduit à la conception de théories à « variables cachées » telles que celle de David Bohm ou au théorème de Bell (par définition une variable cachée n’a pas d’« indétermination » ou fluctuation intrinsèque). John Bell a démontré en 1966 que toute théorie impliquant des variables cachées devait satisfaire certaines inégalités (qui portent son nom) qu’on peut empiriquement tester .

Une série d’expériences, comme celles d’Alain Aspect en 1982 , a réfuté les inégalités de Bell et ainsi toute la famille des théories à variables cachées. Il est alors allé de soi que toute violation des inégalités de Bell confirme la mécanique quantique (en général la réfutation de p est corrélée à la confirmation de non-p ; aussi, n’en déplaise à Popper, la réfutation n’est pas plus forte que la confirmation). D’un autre côté, un nombre immensément plus grand et plus varié d’expériences menées pendant près d’un siècle a montré que la théorie quantique est la plus précise des théories physiques."

"Le scepticisme de Stephen Hawking à propos de la réalité  est du même ordre. Il déclare que les scientifiques jugent qu’un objet X est réel si un modèle de X concorde avec l’observation. En conséquence de quoi il ajoute que tout ce que l’on peut dire c’est que la réalité est soumise aux modèles. Mais cette conclusion ne tient que si l’on confond réalité et vérité, puisque la confirmation empirique d’un modèle conceptuel de X amène seulement à penser que le modèle est vrai, non que X est objectivement réel. Par exemple, un modèle psychologique des illusions d’optique peut être vrai alors même que ces illusions, bien que réelles, ne sont pas objectives puisqu’elles se produisent dans la tête d’un sujet.

Ajoutons à cela qu’un modèle peut tout à fait s’accorder aux données tout en s’appuyant sur une entité postulée irréelle, comme ce fut le cas en optique ondulatoire qui impliquait l’imaginaire éther. Seules les fictions, comme les contes de fées ou les objets mathématiques, sont soumises à des modèles ; les choses réelles, par définition, existent indépendamment de tout modèle."

"Le matérialisme est la famille d’ontologies qui soutiennent que l’Univers est matériel. La plupart des matérialistes admettent la réalité du mental, mais ils déclarent que, bien loin d’être immatériel, tout processus mental est un processus cérébral. [...]

L’idéalisme quantique est le plus fantaisiste et le plus « tendance » des membres du camp immatérialiste. [...]

L’opinion selon laquelle la théorie quantique réfuterait le matérialisme découle de son interprétation subjectiviste conjointement au fait que cette théorie n’astreint pas ses objets à ne pas s’interpénétrer, comme les corps étudiés par la mécanique classique. Pourtant, l’optique, née dans l’Antiquité, traite de choses sans masse ni solidité, à savoir les faisceaux lumineux. Les philosophes modernes n’ont pas saisi cette généralisation tacite de la notion de matière. Même le grand Bertrand Russell pensait que l’impénétrabilité était ce qui définissait la matière.

Une autre croyance populaire veut que la physique quantique soit non déterministe parce que ses lois fondamentales sont probabilistes. Cette option ne tient pas, même si l’on se contente de la version laplacienne du déterminisme, puisqu’elle est invalide dans le cas d’une collection de billes. En effet Ludwig Boltzmann a montré il y a plus d’un siècle que dans ce cas le hasard objectif et la causalité allaient de pair. Et ceci nous renvoie à la mécanique statistique, dans laquelle les concepts de probabilité et d’aléatoire sont primordiaux.

La physique statistique et la physique quantique invitent toutes les deux à élaborer une conception plus large et plus subtile du déterminisme. Cette conception doit converger vers l’association de deux principes : l’existence de lois (causales, probabilistes ou mixtes) et la conservation de la matière (et non celle de la masse).

Les théories quantiques satisfont à cette version évoluée du déterminisme en ce qu’elles reposent sur des lois et des principes de conservation (ou plutôt des théorèmes). Le principe d’existence de lois contrevient à l’idée que tout ce qui est imaginable puisse arriver réellement – rappel de la tristement célèbre maxime de Paul Feyerabend « tout est bon ». Par exemple, l’énergie ne peut être émise ou absorbée en des quantités arbitraires.

Et les lois de conservation, classiques ou quantiques, contreviennent à l’idée que la matière peut apparaître à partir de rien. D’ailleurs, toutes les lois de conservation ne sont pas probabilistes. Par exemple, la conservation du moment angulaire (moment orbital plus spin) d’une particule plongée dans un champ de force centrale est vraie à tout instant, pas seulement en moyenne.

En résumé, la physique quantique n’a pas tué le déterminisme ; elle en a seulement suscité une redéfinition."

"Quant à la limite de notre capacité à savoir, elle serait inhérente à la formulation première du fameux « principe d’incertitude » de Heisenberg, à savoir l’impossibilité de connaître en même temps la position précise et l’impulsion précise d’un électron. Mais cette formulation est incorrecte puisque les prémisses qui conduisent à ce théorème n’impliquent jamais le concept de connaissance ; elles ne parlent que de quantons. Ce que dit le théorème d’Heisenberg, c’est que les électrons et apparentés n’ont pas simultanément une position et une impulsion précises. Et il est bien raisonnable de dire qu’on ne peut pas connaître quelque chose qui n’existe pas. Ainsi et contrairement à la revendication d’Heisenberg, la théorie quantique ne parle pas de notre connaissance de la nature : elle fait partie de la physique, pas de l’épistémologie ni des sciences cognitives.

En somme, l’avènement de la théorie quantique aura été une victoire de la rationalité et un immense apport à la connaissance humaine."

"Si l’on débarrasse la théorie quantique de ses appendices philosophiques, on se rend compte qu’elle est tout aussi réaliste, matérialiste et déterministe que la physique classique. Ce qui est vrai c’est qu’elle nous oblige à réviser notre ontologie et en particulier à élargir les concepts de matière et de détermination, à affaiblir les concepts de forme et d’individualité et à renforcer le principe d’approche systémique, à cause de l’ubiquité de l’intrication et de la cohérence."

-Mario Bunge (Philosophe et physicien argentin, professeur émérite de logique et de métaphysique à l’université McGill de Montréal) "La physique quantique réfute-t-elle le réalisme, le matérialisme et le déterminisme ?", Chapitre 13 in Marc Silberstein (dir.), Matériaux philosophiques et scientifiques pour un matérialisme contemporain, volume 1, Éditions Matériologiques, Paris, 2016.

Aucun commentaire:

Enregistrer un commentaire