- Bernard PIETTRE
Bernard PIETTRE (né en 1950), agrégé de philosophie, professeur honoraire de philosophie en classes préparatoires, ancien directeur de programme au CIph de Paris (2001-2007/Philosophie, Mathématiques et Musique de Platon à nos jours) est l’auteur de nombreuses traductions de Platon (éditions Nathan, Hachette, Hatier). Il a également publié "Philosophie et science du temps" aux PUF collection "Que sais-je" (1994) ainsi que "Philosophie et musique chez Platon" édition C.N.D.P. (Paris, 1996). Il a reçu le Prix de composition de musique électroacoustique au C.N.R. d’Amiens en 1989 (source : www.imeb.net/www.babelio.com). Il est enfin l’auteur de divers articles d’épistémologie, notamment un article sur le « Temps et son irréversibilité » consultable sur notre site, qui a donné lieu à une conférence en oct. 2019 à Langres).
II - LE DÉTERMINISME MÉCANISTE EN QUESTION DANS LA SCIENCE CONTEMPORAINE
2.1. Le déterminisme : un idéal scientifique fidèle au modèle mécaniste
Le déterminisme scientifique relève d’une exigence, plus précisément d’un idéal, comme l’illustre parfaitement ce texte éminemment célèbre de Simon Laplace et qu’il convient de relire :
« Nous devons donc envisager l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces de la nature dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain à ses yeux pour elle et l’avenir, comme le passé, serait présent à ses yeux. » (…) « Tous ces efforts (de l’esprit humain) dans la recherche de la vérité tendent à le rapprocher sans cesse de l’intelligence que nous venons de concevoir, mais dont il restera toujours infiniment éloigné. » [1]
Nous ne sommes pas en présence d’un texte de nature dogmatique, comme celui de d’Holbach que nous citions plus haut ; Laplace part d’une pratique des mathématiques. On ne peut bien comprendre ce texte si on ne le resitue pas dans son contexte. À savoir les recherches post-newtoniennes pour rendre compte mathématiquement de la stabilité du système solaire et de sa pérennité, sans faire intervenir ponctuellement Dieu comme le suggérait Newton. Et c’est en s’appuyant sur la méthode mise au point par Newton (et Leibniz), à savoir le calcul différentiel, mais affiné et perfectionné par Lagrange au XVIIIe – par ce que Laplace appelle ici « l’analyse » – qu’on peut parfaitement, sinon en fait au moins en droit, connaître à la fois l’avenir et le passé du « système solaire » et partant de l’univers entier. N’oublions pas en outre que Laplace intègre la notion de hasard, maîtrisé mathématiquement, puisque c’est dans un traité sur les probabilités qu’il rédige ces fameuses lignes. Par une approche statistique on peut serrer au plus près ce qui reste d’incertitude dans la prévision du comportement des phénomènes, et en particulier de celui des planètes dans le système solaire, et tenter ainsi de réduire notre ignorance et de se rapprocher d’une connaissance idéale, telle que la posséderait une intelligence supérieure, pour ne pas dire divine.
C’est Newton au départ qui permet de donner un sens scientifique à la notion de déterminisme. Pourquoi ? Parce que la physique newtonienne établit des relations nécessaires entre des variables déterminées en ne se contentant pas de géométriser l’expérience (comme Galilée ou Descartes), mais en mettant au point le calcul des fluxions, qui deviendra le calcul différentiel. En connaissant en instant t le point d’une trajectoire, comme celle de la Lune autour de la Terre, je connais l’ensemble des points – l’intégrale – de cette trajectoire, sachant que par « point » il faut entendre ici une position et une vitesse déterminée. Si on a a, alors on aura b – et ce dans une perspective dynamique, où la notion de force, non comme cause du mouvement, mais comme cause de la variation de sa vitesse ou de sa direction, joue un rôle essentiel. La notion de cause contient implicitement celle d’une force aux effets déterminés, remarquions-nous plus haut. Or il est possible de calculer la constance dans le temps de la variation de la direction du mouvement de la Lune – relativement à celle de son mouvement inertiel – autour de la Terre.
Les méthodes analytiques, affinées par Lagrange au XVIIIe siècle, ont contribué à donner au calcul une plus grande efficacité, en pouvant s’appliquer dès lors, non seulement « aux grands corps » de l’univers (auxquels une description simplement géométrique peut convenir) mais aussi « au plus léger atome ». Connaissant les données initiales d’un système dynamique, à un instant t, en les soumettant à « l’analyse », je peux prédire son avenir à t + 1 … et à t + n, comme je peux « rétrodire » ce qu’il a été dans le passé à t - 1 ou t - n, dans la mesure où les équations de la mécanique newtonienne sont invariantes par rapport à la direction du temps. Mais l’idée de déterminisme implique l’idée d’un changement d’état d’un système dynamique à chaque instant (dt). D’où la formulation précise de Laplace : « Une intelligence qui, pour un instant donné, etc. ». Celle-ci est à même de relier l’état instantané de l’univers, en (t) et l’état instantané qui le suit immédiatement dans la continuité (t + dt), le premier étant la cause du suivant (t + dt).
On voit que le paramètre du temps est essentiel dans la formulation des lois générales de la mécanique, puisqu’elles décrivent à chaque instant un changement d’état ; sauf que ce temps est en même temps aboli, du moins « la flèche du temps » est abolie, puisqu’on peut en effet inverser le signe de t en – t, on peut inverser le film de l’univers (on inverse le mouvement des planètes autour du soleil), et les lois newtoniennes de la dynamique en resteraient inchangées. Ainsi passé et futur sont susceptibles d’être présents à une intelligence supérieure. Passé et futur sont symétriques par rapport à l’axe du présent, ce qui revient à nier la réalité du passé et du futur.
Ce qui est en effet conforme à un parfait modèle mécaniste. Une machine constitue un bloc, comme un moteur ou une montre constitue un bloc. Elle est, elle ne devient pas ; elle ne se métamorphose pas au cours du temps, tout au plus elle s’use. Son fonctionnement est entièrement présent à son concepteur. Toutes les pièces de la machine se tiennent les unes aux autres au point que rien ne peut être posé comme une cause isolable du reste de ce qui s’enchaîne nécessairement dans le monde. Tout est interdépendant de toute éternité, comme dans l’univers de Leibniz, selon une « harmonie préétablie ».
Ainsi à l’article « fortuit » de l’Encyclopédie [2], d’Alembert affirme que :
« Tout étant lié dans la nature, les événements dépendent les uns des autres ; la chaîne qui les unit est souvent imperceptible, mais n’en est pas moins réelle (...). »
Et d’Alembert de préciser :
« Supposez un événement de plus ou de moins dans le monde, ou même un seul changement dans les circonstances d’un événement, tous les autres se ressentiront de cette altération légère, comme une montre toute entière se ressent de la plus petite altération essuyée par une des roues ». (Article « fortuit » de l’Encyclopédie).
D’Alembert défend l’idée de l’unité d’un univers où tout a sa raison d’être, où tout y est placé intelligemment pour fonctionner comme une horloge, de tout temps. Moyennant quoi, en dépit de ses positions antireligieuses, d’Alembert hérite d’une vision théologique, chrétienne en particulier, que Leibniz faisait sienne : le moindre détail de la création est l’effet de l’intelligence et de la volonté divines – alors que le Dieu de Platon et d’Aristote ordonnait le monde, sans l’avoir créé, en laissant une place résiduelle au désordre.
2.2. Le déterminisme classique à l’épreuve de la découverte de systèmes dynamiques chaotiques
C’est cette vision intégralement déterministe de la nature, présupposant la référence implicite à un modèle mécaniste universel, qui s’est effondrée avec la science contemporaine. Voyons pour quelles raisons.
La première est la découverte du caractère chaotique de nombreux systèmes dynamiques. Un système dynamique est dit chaotique quand il est sensible aux conditions initiales. Il suffit de la moindre variation dans le calcul des données initiales pour qu’à terme les effets prévus changent radicalement ; cette sensibilité aux données initiales croît même de façon exponentielle avec le temps. Poincaré est le premier à mettre en avant l’existence de systèmes dynamiques chaotiques. Voyons déjà comment il montre l’impossibilité de souscrire à la définition que propose Laplace de l’idéal déterministe de la science :
« Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. Si nous connaissions exactement les lois de la nature et la situation de l’univers à l’instant initial, nous pourrions prédire exactement la situation de ce même univers à un instant ultérieur. Mais alors même que les lois naturelles n’auraient plus de secret pour nous, nous ne pourrons connaître la situation initiale qu’approximativement. Si cela nous permet de prévoir la situation ultérieure avec la même approximation, c’est tout ce qu’il nous faut, nous disons que le phénomène a été prévu, et qu’il est régi par des lois ; mais il n’en est pas toujours ainsi, il peut arriver que de petites différences dans les conditions initiales engendrent de très grandes dans les phénomènes finaux ; une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le phénomène fortuit. » [3]
Le terme fortuit donne droit de cité à la notion de hasard, bannie par principe du modèle mécaniste ou laplacien de la science. Mais que faut-il alors entendre par hasard ? Poincaré examine le sens ancien puis moderne du terme :
« Les Anciens distinguaient les phénomènes qui semblaient obéir à des lois harmonieuses, établies une fois pour toutes, et ceux qu’ils attribuaient au hasard ; c’étaient ceux qu’on ne pouvait prévoir, parce qu’ils étaient rebelles à toute loi.
(…) Mais cette conception n’est plus la nôtre ; nous sommes devenus des déterministes absolus, et ceux même qui veulent réserver les droits du libre arbitre humain laissent du moins le déterminisme régner sans partage dans le monde inorganique. Tout phénomène, si minime qu’il soit, a une cause, et un esprit infiniment puissant, infiniment bien informé des lois de la nature, aurait pu le prévoir dès le commencement des siècles. Si un pareil esprit existait, on ne pourrait jouer avec lui à aucun jeu de hasard. » [4]
Et Poincaré de se demander : Mais cette définition est-elle satisfaisante ?
« (…) Pour trouver une meilleure définition du hasard, il nous faut examiner quelques-uns des faits que l’on s’accorde à regarder comme fortuits, et auxquels le calcul des probabilités paraît s’appliquer ; nous rechercherons ensuite quels sont leurs caractères communs.
Le premier exemple que nous allons choisir est celui de l’équilibre instable ; si un cône repose sur sa pointe, nous savons bien qu’il va tomber, mais nous ne savons pas de quel côté ; il nous semble que le hasard va seul en décider. Si le cône était parfaitement symétrique, si son axe était parfaitement vertical, s’il n’était soumis à aucune autre force que la pesanteur, il ne tomberait pas du tout, mais le moindre défaut de symétrie va le faire pencher légèrement d’un côté ou de l’autre, et dès qu’il penchera, si peu que ce soit, il tombera tout à fait de ce côté. » [5]
L’exemple du cône posé à la verticale susceptible de tomber à tout moment sans qu’on sache s’il va tomber à droite et à gauche est éloquent : on dira que le hasard fera qu’il tombe à gauche plus qu’à droite, quand on sait que c’est pour une infime variation d’une pression de l’environnement (de mon doigt quand je le pose, des déplacements d’air…) qu’il tombera de façon déterminée soit à gauche, soit à droite. Un système dynamique est imprévisible tout étant parfaitement « déterministe ». Poincaré affine la notion de hasard tout autant que celle de déterminisme, puisqu’il ne renonce pas à l’idéal déterministe de la science, tout s’écartant un tant soit peu de la façon dont le présente Laplace. Poincaré donne un second exemple, non moins parlant :
« Notre second exemple sera fort analogue au premier et nous l’emprunterons à la météorologie. Pourquoi les météorologistes ont-ils tant de peine à prédire le temps avec certitude ? Pourquoi les chutes de pluie, les tempêtes elles-mêmes nous semblent-elles arriver au hasard, de sorte que bien des gens trouvent tout naturel de prier pour avoir la pluie ou le beau temps, alors qu’ils jugeraient ridicule de demander une éclipse par une prière ? Nous voyons que les grandes perturbations se produisent généralement dans les régions où l’atmosphère est en équilibre instable, qu’un cyclone va naître quelque part ; mais où ? Ils sont hors d’état de le dire ; un dixième de degré de plus ou de moins en un point quelconque, le cyclone éclate ici et non pas là, et il étend ses ravages sur des contrées qu’il aurait épargnées. Si on avait connu ce dixième de degré, on aurait pu le savoir d’avance, mais les observations n’étaient ni assez serrées, ni assez précises, et c’est pour cela que tout semble dû à l’intervention du hasard. Ici encore nous retrouvons le même contraste entre une cause minime, inappréciable pour l’observateur, et des effets considérables, qui sont quelquefois d’épouvantables désastres. » [6]
Ce qui est remarquable, c’est que Poincaré en donnant l’exemple de la météorologie ne fait qu’annoncer la découverte du physicien-météorologue Edward Lorenz dans les années 60-70. Lorenz utilisait un modèle assez simple pour donner un outil efficace de prédiction météorologique, avec trois variables, en utilisant un ordinateur ancestral de l’époque. Or un jour il reprend le travail qu’il avait laissé la veille, réinitialise le programme avec les mêmes données numériques, mais en supprimant simplement quelques décimales, et, à sa grande surprise, son tableau de prévision s’écarte complètement, et ce assez vite, de celui qu’il avait établi la veille ; il est quasiment le même au début, et puis au bout d’un certain temps, les deux tableaux n’ont plus rien à voir l’un avec l’autre. Lorenz comprend que cela tient à la toute petite différence des données numériques initiales entre les deux modèles prévisionnels. La formule de Poincaré citée ci-dessus prend tout son sens : « Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard ». On connaît l’expression célèbre de « l’effet papillon », dont Lorenz est justement l’auteur. Un battement d’aile de papillon au-dessus du Brésil est susceptible de provoquer le déclenchement d’une tornade dans le Texas : autrement dit, une infime variation de déplacement d’air a des effets considérables à terme [7]. Lorenz remettait en lumière les travaux de Poincaré sur les systèmes dits chaotiques, qui avaient été quelque peu oubliés et qui portaient, au départ, sur la question de la stabilité du système solaire qui avait particulièrement préoccupé les mathématiciens post-newtoniens.
2.3. Le problème des trois corps
La loi de la gravitation universelle de Newton est parfaitement vérifiée si on prend isolément deux corps, par exemple la Terre et la Lune, ou la Terre et le Soleil. Elle est alors idéalement vérifiable pour l’éternité passée et future. Mais, si on considère la révolution de la Terre autour du Soleil, on doit tenir compte aussi de l’influence de ce troisième corps qu’est la Lune. Edmond Halley, contemporain de Newton, avait déjà remarqué, en consultant les calendriers des éclipses de lune tenus dans l’Antiquité, que le mouvement de la Lune s’accélérait avec le temps, du fait de l’interaction de la Terre et de la Lune et du phénomène des marées. Il suggérait déjà un devenir du système solaire, – contrairement à ce qu’impliquerait sa stabilité. En outre, il existe une influence infinitésimale des planètes entre elles (la masse de Jupiter est non négligeable, par exemple) ; ces petites causes que représentent ces influences minimes ont des effets difficiles à évaluer.
Newton lui-même avait pris conscience du problème de l’existence de facteurs minimes susceptibles de mettre en cause la stabilité du système solaire, et allait jusqu’à penser que Dieu intervenait ponctuellement pour remettre l’horloge de l’univers à l’heure – si l’on peut dire :
« Toutes les planètes se déplacent d’une seule et même manière sur des orbites concentriques, à l’exception de quelques irrégularités qui peuvent résulter des actions mutuelles des comètes et des planètes, qui sont aptes à croître, jusqu’à ce que ce système nécessite une révision. » [8]
Lagrange, d’Alembert, Laplace, s’étaient penchés sur cette difficulté soulevée par Newton lui-même. Ils avaient affiné les méthodes de calcul pour rendre compte de la stabilité du système solaire, tout en prenant en compte sa complexité, et en faisant l’économie d’un Deus ex machina.
Poincaré reprend la question, en adoptant une approche globale. Au lieu de se contenter de prendre l’intégrale décrivant la trajectoire d’un corps (A) autour d’un autre (B), et de prendre l’intégrale décrivant la trajectoire d’un troisième corps (C) autour de (A) – en tenant compte chaque fois des données initiales que sont la masse, la position, la vitesse respective de chacun d’eux – et de les sommer une à une pour tenter d’appréhender, ne serait-ce que par approximation, la stabilité supposée des trois trajectoires prises ensemble, Poincaré adopte une méthode d’approche nouvelle : il considère d’emblée ensemble les trois corps (A, B, C) qui s’influencent mutuellement, et envisage alors les multiples trajectoires possibles que leurs interactions mutuelles sont susceptibles de générer. Mais les données initiales que l’on prend chaque fois sont déjà l’effet dans le temps de l’influence des conditions dans lesquelles se trouvaient les trois corps précédemment. La part d’inconnu, aussi petite soit-elle, au départ, empêche une solution analytique satisfaisante permettant de décrire correctement le comportement des trois corps à terme. En un mot le système solaire, sensible aux conditions initiales, est chaotique. L’influence, fût-elle négligeable, d’un troisième corps massif lointain sur deux autres corps massifs proches l’un de l’autre se fait ressentir au bout d’un certain temps : petite cause, grands effets. Le système solaire n’est donc stable qu’à court terme. Les travaux de Jacques Laskar dans les années 80 ont permis de montrer qu’au bout de dix millions d’années – ce qui est très peu eu égard à la durée de vie du soleil – la position respective des planètes dans le système solaire devenait totalement imprédictible.
Le déterminisme auquel est soumis le système solaire est-il pour autant remis en question par les théories mathématiques du chaos ? Non, puisqu’il est parfaitement prévisible à court terme, et globalement à terme (dans cinq milliards d’années, le soleil deviendra une naine blanche). Un système peut être dit déterministe tout en étant imprédictible dans le détail de son devenir. Cette imprédictibilité ne résulte pas de l’ignorance de causes cachées infinitésimales, ignorance qui serait toujours susceptible d’être réduite, comme le pensait un Laplace, mais de l’impossibilité même de les connaître ; du moins l’effort de les connaître tombe au final sur... le hasard.
Prenons un pendule : il oscille d’un point x à un point y, en suivant le même plan ; il est amené, au bout d’un certain temps, à se stabiliser verticalement du fait du frottement de l’air. Ajoutons à proximité de ce pendule un aimant – un troisième corps, précisément : il va alors osciller en suivant des plans différents, et ce de manière totalement aléatoire. L’oscillation reste bien isochronique, conformément à la loi du pendule simple de Galilée, tout en allant d’un point x à un point y de manière complètement imprévisible, les points x et y n’étant jamais identiques, puisque n’appartenant jamais au même plan. L’aimant en plus empêchera que le pendule revienne à la verticale. Le comportement du pendule, considéré globalement, a bien un caractère nécessaire, conforme aux lois physiques de la gravité et de l’électromagnétisme, mais la direction suivie dans le plan par chaque oscillation est totalement aléatoire. L’aléatoire n’est pas apparent, et ne masque pas un déterminisme sous-jacent ; l’aléatoire côtoie le nécessaire. Comme le dit Daniel Ruelle : « Dans le monde où nous vivons, le fortuit et le nécessaire se rencontrent côte à côte, et l’imprévisible voisine avec le prévisible ». [9]
2.4. Hasard et nécessité dans la physique quantique
L’autre raison qui conduit à abandonner l’idéal intégralement déterministe de la mécanique classique, newtonienne – et même einsteinienne dont nous dirons un mot plus loin – c’est l’émergence de la physique quantique qui nous oblige à accorder, justement, une place au hasard dans la manière même dont le monde microphysique se manifeste dans nos expérimentations.
En mécanique quantique, comme on sait, il est impossible de déterminer à la fois la vitesse et la position d’une particule en un instant t, condition requise en mécanique newtonienne pour déterminer l’intégrale de sa trajectoire en t + 1… jusqu’à t + n. Comme le montrent les relations d’incertitude d’Heisenberg, si on détermine précisément la position d’une particule, on a une indétermination sur sa vitesse, et si on détermine précisément sa vitesse, on a une indétermination sur sa position. Indétermination relative, et non absolue, puisque, par exemple, on peut connaître la position d’un photon à défaut de sa vitesse, et sa vitesse à défaut de sa position par exemple ; mais la détermination ne peut être complète, comme celle qu’on visait en mécanique classique. Cette relative indétermination est en réalité due à la nature des objets quantiques (à la fois ondes et corpuscules) qui ne sont pas des « corps » individualisables, et comme tels isolables et séparables les uns des autres. D’où, entre autres, le paradoxe de la non-séparabilité des particules, de leur corrélation à distance... En un mot, il est impossible d’établir des relations causales linéaires entre des particules identifiables, telles que l’une (par sa masse, sa position, sa vitesse) puisse avoir un effet sur une autre, au même titre que des « grands corps ».
Les transitions entre états d’une particule comme l’électron autour du noyau d’atome ne sont pas descriptibles dans l’espace en termes de changement continu par un calcul différentiel classique permettant de rendre compte de la succession d’états tel que l’un soit la cause de celui qui suit. Les transitions d’état se font de manière discontinue et aléatoire. L’état d’une particule – d’un électron ou d’un photon – dans un champ électro-magnétique est en réalité un état probable. Impossible de déterminer à l’avance par exemple l’état d’un électron autour d’un noyau, ni à quel moment il changera d’orbite (à quel moment se produira « un saut quantique »). Dès lors le comportement des particules relève du calcul de probabilités et obéit à la loi des grands nombres – ainsi de la répartition des photons sur une plaque photo-électrique, par exemple. Mais autant, dans la physique classique, en mécanique statistique – et par exemple en thermodynamique – le calcul de probabilité permet de pallier à notre ignorance et de se rapprocher d’une connaissance idéalement parfaitement déterminée et déterministe, comme la concevait un Laplace, autant l’approche statistique en physique quantique permet de cerner des états qui s’imposent à l’expérience comme probables. Ces états probables ne dérogent pas pour autant à la nécessité. Indétermination ne signifie pas pour autant indéterminisme. Car si le comportement individuel des particules est imprédictible, leur comportement global est parfaitement prédictible, et l’équation de Schrödinger de la fonction d’onde permet de satisfaire à l’idéal déterministe de la physique. [10]
Mais il n’est plus possible de dire que ce qu’on attribue au hasard dans le comportement des particules (ou des « ondicules ») n’est jamais que l’effet de notre ignorance d’un déterminisme sous-jacent, ou l’effet de notre ignorance de « variables cachées », comme le suggérait Einstein. L’expérience – l’expérience d’Aspect en particulier – a bel et bien confirmé qu’il n’y avait pas de variables cachées. Le hasard auquel on a affaire dans l’expérience est bien un effet du réel, comme si la nature jouait aux dés. On peut en donner aussi un exemple très simple, plus simple que l’état de probabilité de présence d’un électron autour d’un noyau, c’est celui de la désintégration radioactive d’atomes. Cette perte progressive pour un atome radioactif de ses nucléides instables se fait selon un rythme totalement aléatoire, comme l’avait découvert, à son grand étonnement, le physicien Rutherford. La progression de la désintégration radioactive d’un atome n’en obéit pas moins à la loi du grand nombre, laquelle est plus ou moins rapide selon la nature de l’atome en question, au point qu’on peut calculer précisément la demi-vie du rayonnement radioactif d’un atome spécifique.
Voilà qui exige qu’on approfondisse encore les notions de hasard et de nécessité. Commençons par celle de hasard...
(Cliquer sur le lien ci-dessous vers la suite de l’article)