Archive

Archive for the ‘Palle YOURGRAU.’ Category

Palle YOURGRAU. « Le leitmotiv du XX° siècle. »

« Le leitmotiv du XX° siècle ».

« Le théorème d’incomplétude de Godel, publié en 1931, se présenta innocemment comme une tentative non pour réfuter, mais pour réaliser le programme de Hilbert. L’idée de Hilbert était de mettre les mathématiques à l’abri d’éventuelles contradictions en remplaçant la part intuitive de chaque discipline mathématique par un système d’axiomes écrits à l’aide de pures formules qui, bien qu’admettant une interprétation sémantique standard, pouvaient être manipulées mécaniquement selon les règles d’une pure syntaxe, à l’instar d’un programme informatique aujourd’hui. Le programme de Hilbert consistait à trouver un système de formules primitives appelées « axiomes » à partir desquelles, en vertu de règles de démonstration fixes – des règles syntaxiques -, ou pourrait déduire tous les théorèmes de la discipline mathématique considérée. Un tel système formel devait posséder deux caractéristiques cruciales : la consistance et la complétude. Pour parer à toute mauvaise surprise, un système formel devait être consistant : ses axiomes ne devaient pas permettre de déduire deux théorèmes mutuellement contradictoires. Il devait être également complet dans le sens où tout énoncé vrai formulable (dans une interprétation appropriée) au sein du système  devait se déduire des axiomes du système. Pour empêcher la circularité, le système dont on voulait démontrer la consistance ne devait pas lui-même recourir à  des procédures mathématiquement suspectes ou controversées, susceptibles de rendre pareillement suspecte la consistance. Il devait être, pour reprendre le terme forgé par Hilbert, non pas exactement fini, mais « finiste », dans le sens où ses démonstrations devaient être en principe contrôlables par l’expérience des sens et ne faire à aucun moment appel à un quelconque infini abstrait et complet, tel celui proposé par Cantor.

Le formalisme de Hilbert n’était qu’un exemple – en l’occurrence, le plus rigoureux et le plus mathématique – de l’esprit qui animait en profondeur le XX° siècle et correspondait fondamentalement à la domination de la forme sur le contenu, de la syntaxe sur la sémantique, et de la démonstration sur la vérité. Il n’est pas surprenant que la principale concrétisation d’un système formel, l’ordinateur, pure machine syntaxique, soit devenu le dispositif mécanique dominant du Zeitgeist. En art, sciences, philosophie, mathématiques, musique, architecture et linguistique, le formalisme, au sens le plus général, devint le thème dominant. En peinture par exemple, le réalisme de Cézanne dissimulait un libre jeu de formes géométriques, jeu que ses modèles notaient de plus en plus à mesure qu’ils observaient que les contraintes géométriques de ses tableaux l’emportaient sur toute tentative de saisir la forme ou l’esprit de ceux qui posaient devant lui. Cela ouvrit la voie à l’usage explicite des formes libres par les cubistes, conduits par Gris, Braque et Picasso. Le Cézanne de la musique fut Brahms, dont le chromatisme post-romantique dissimulait la domination d’une structure sous-jacente purement logique. Wittgenstein, dont la Vienne natale avait accueilli Brahms, eut ce commentaire sinistre : chez Brahms, «  je commence à entendre  le son de la machinerie. » Ce formalisme caché, cette machinerie logique de l’œuvre de Brahms, n’échappèrent pas à son admirateur Schönberg, qui devait rapidement se faire l’apôtre des formes libres de la musique sérielle, la méthode la plus explicitement mathématique et conventionnelle jamais employée en composition musicale. Le principal porte-drapeau de la musique pour piano de Schönberg, Glenn Gould, devait comparer ses interprétations à des radiographies structurales des partitions du compositeur. En tant que grand-prêtre du dépouillement, Gould fit clairement comprendre que son premier dieu était Bach – que Schönberg lui aussi vénérait – et son évangile, la fugue.

La physique ne fut pas en reste. Au contraire, elle fut à l’avant-garde. En relativité restreinte, Einstein avait abandonné les intuitions kantiennes de l’espace et du temps pour le formalisme mathématique de l’espace-temps, uniquement contrait par l’exigence formelle de l’invariance de Lorentz et par le postulat physique sur la valeur limite de la vitesse des signaux électromagnétiques. La relativité générale, théorie plus inclusive, devait produire une structure abstraite gouvernée par des contraintes logiques encore plus générales. Les sciences cognitives et sociales devaient elles aussi emboîter le pas de la physique. Ainsi Noam Chomsky devait reformuler la linguistique pour en faire une science structurale sur le modèle de la logique de Frege, avec une syntaxe dominant explicitement la sémantique, tandis que Claude Lévi-Strauss devait coudre les abstractions du structuralisme sur la couette multicolore de l’anthropologie. En mathématiques, la tendance fut de plus en plus à la réduction d’un domaine aux relations structurales unissant ses divers éléments. Ce qui importait, soulignait Hilbert dans sa reconstruction de la géométrie d’Euclide, ce n’était pas ce que sont les points, les droites et les plans – i.e. la signification des termes fondamentaux -, mais les relations logiques unissant ces termes fondamentaux – i. e. la syntaxe du système formel. Pour ce qui le concernait, ajoutait Hilbert, un point d’un espace euclidien pouvait aussi bien être un bloc de bière, l’essentiel étant qu’il obéisse aux règles de son système formel. Cette idée d’une soi-disant définition implicite d’un concept par ses liens avec d’autres concepts était fermement rejetée par le père du système formel, Gottlob Frege. Dans sa description des nombres naturels, Frege objectait que ses propres définitions contextuelles liminaires – ses propres définitions implicites – ne disaient pas ce qu’étaient réellement les nombres, et en particulier ne déterminaient en rien si à une collection donnée on pouvait ou non attacher le nombre Jules César, ou « si ce même conquérant familier de la Gaule était ou non un nombre. » Mais cela n’était pas dû, soulignait Frege, à une impuissance des définitions implicites.

La décision de tout réduire à la syntaxe et de se focaliser sur la seule forme permettait de donner libre cours à l’imagination créatrice. Elle offrait également la sécurité. Les règles du système formel étant la propre création des mathématiciens, ceux-ci pouvaient les contrôler, les examiner en tant que signes purs et vérifier ainsi qu’elles ne conduisaient pas à une inconsistance, à une contradiction. La connaissance, et non la vérité, devint de plus en plus l’objectif des systèmes formels de la science, tout comme l’authenticité devint le slogan des systèmes d’éthique ou des formes d’existence. L’existentialisme sartrien, par exemple, tenta bravement, ou peut-être sottement, de remplacer la conscience par l’authenticité. Le problème, bien sûr, était que Hilbert aussi était authentique. C’est le contenu de ses convictions qui posait problème, non leur connaissance. Les mathématiques étant le langage des relations formelles, il devint de plus en plus évident que le formalisme de référence était celui des mathématiques elles-mêmes, et que si celles-ci pouvaient être à l’abri de l’inconsistance, aucun autre langage ne pouvait l’être. Si donc le formalisme fut le leitmotiv du XX° siècle, et si le formalisme mathématique de Hilbert contenait en lui-même l’essence de tous les autres formalismes, alors le théorème d’incomplétude de Gödel, qui réfute spectaculairement et inéluctablement le programme de Hilbert, peut véritablement être considéré comme le plus important résultat intellectuel du XX° siècle.

Gödel s’attaqua au monumental programme de Hilbert en tentant d’abord de voir si on pouvait démontrer la consistance et la complétude d’un système axiomatique formel générant l’analyse mathématique.  Il commença par démontrer la consistance et la complétude d’un système axiomatique plus faible, l’arithmétique, ou théorie des nombres, sous-système de l’analyse. Là, les conditions étaient favorables. Durant des milliers d’années, la géométrie avait été le paradigme du système axiomatique, mais à la fin du XIX° siècle, les travaux de Frege, Dedekind et Peano lui avaient substitué l’arithmétique. Ils avaient construit un système d’axiomes ou postulats – appelés aujourd’hui, sans véritable raison, axiomes de Peano – dont on pensait pouvoir déduire toutes les vérités sur les nombres naturels. Mais déduire comment ? Par la seule logique, la logique que Frege avait inventée dans sa Begriffsschrift. Tandis que les axiomes avaient, sémantiquement parlant, un authentique contenu arithmétique, les règles de déduction étaient une affaire de pure syntaxe, une série d’instructions mécaniques pouvant être suivies aveuglément, sans aucune référence à la vérité ou au contenu mathématique – pouvant être suivies, pour reprendre l’expression du logicien John Myhill, par un imbécile ou un ordinateur.

Or ce que Gödel découvrit fut non seulement que les axiomes de Peano étaient en fait incomplets, mais qu’il en allait pareillement pour tout système d’axiomes, même infiniment grand, susceptible de générer l’arithmétique et satisfaisant à tout critère mathématique raisonnable de contrôle par un esprit fini. Un esprit fini, tel celui de Dieu, qui peut embrasser d’un coup la totalité des nombres, n’a probablement pas besoin d’axiomes. Ainsi, la plus simple et la plus fondamentale des disciplines mathématiques, l’arithmétique des nombres naturels, socle sur lequel s’élève le grandiose édifice des nombres naturels, s’avérait être, du point de vue de l’axiomatique formelle, incomplet, et pire, « incomplétable ». De fait, comme un ordinateur peut uniquement démontrer les théorèmes reposant sur les axiomes qu’il a reçus de son programmateur – il ne peut, ainsi que l’a souligné Gödel, créer lui-même de nouveaux axiomes -, il s’ensuit également qu’en principe, aucun ordinateur – ne pourra jamais saisir toutes les vérités de l’arithmétique, pour ne rien dire du reste des mathématiques. Ainsi, dit Gödel, « la résolution des problèmes de la théorie finitiste des nombres (…) exige continuellement de faire appel à l’intuition mathématique. »

En outre, cette accessibilité de l’incomplétude de l’arithmétique formelle ne nous est pas uniquement réservée, à nous, penseurs dotés d’un esprit et d’intuitions mathématiques. Ironiquement, un ordinateur peut être programmé pour démontrer les théorèmes de Gödel – les théorèmes mêmes qui établissent les limitations intrinsèques des ordinateurs. Dès lors, les vérités de l’arithmétique ne peuvent, en principe, rester confinées à un système formel. C’est là une différence cruciale entre vérité et démonstration. Une démonstration mathématique, dans le sens que nous examinons ici, est toujours une démonstration. Une démonstration mathématique, dans le sens que nous examinons ici, est toujours une démonstration dans, et relativement à, un système formel, tandis que la vérité, et tant que telle, est absolue. Ce qu’a démontré Gödel, c’est que la vérité mathématique n’est pas réductible à une démonstration, formelle ou mécanique. La syntaxe ne peut supplanter la sémantique. Autrement dit, le leitmotiv du XX° siècle a besoin d’être revisité. Les règles mécaniques ne permettent pas d’évacuer le recours au sens, et ce qui nous donne accès au sens, à savoir, l’intuition, apparaît ainsi comme un élément indispensable aux mathématiques – et en fait, même à l’arithmétique. Ce fut le premier coup porté au programme de Hilbert.

Le second ne fut pas long à venir. Gödel démontra rapidement son second théorème d’incomplétude, qui affirmait, avec encore plus d’ironie, que si un système axiomatique générant l’arithmétique était effectivement consistant, il ne pouvait cependant démontrer sa propre consistance. Autrement dit, seul un système formel inconsistant peut démontrer sa propre consistance ! Après avoir entendu Gödel annoncer ses théorèmes d’incomplétude, von Neumann, le plus vif des esprits vifs déduisit peu après la non-démontrabilité de la consistance. « Je serais très intéressé, écrivit-il à Gödel, de connaître votre point de vue sur ce sujet. (…) Si cela vous intéresse, je vous envoie une démonstration détaillée. » On peut imaginer sa déception lorsque Gödel l’informa que le manuscrit du second théorème était déjà entre les mains des éditeurs. Ce fut toutefois von Neumann qui, prenant le contre-pied de Gödel, affirma que la non-démontrabilité de la consistance, telle que Gödel l’avait démontrée, ne laissait pas le moindre espoir au programme de Hilbert. Tandis que pendant plusieurs années, Gödel n’exclut pas que Hilbert puisse découvrir une démonstration finitiste qui échapperait à son second théorème, von Neumann fut dès le début convaincu que cela était impossible. En admettant que l’on rejette l’axiome controversé de Russel sur la réductibilité, affirma-t-il, « on ne peut fonder les mathématiques classiques à partir de moyens logiques. » Il se peut toutefois que son incroyable prescience concernant la véritable portée des découvertes de Gödel n’ait fait qu’accroître ses regrets de n’avoir pas été le premier à faire ces découvertes. Von Neumann sera certes le père de l’ordinateur moderne et l’architecte en chef de la bombe atomique, à Los Alamos, mais cela ne suffira pas à atténuer sa déception. »

(In : Palle YOURGRAU. « Einstein / Gödel. Quand deux génies refont le monde ». Editions Dunod. Le quai des sciences. Paris, 2005, pages : 70 – 77).

Catégories :Palle YOURGRAU.