42: La question de la vie de l'univers et du reste, en moins de 7,5 millions d'années
0. Avant-propos
Quel est le point commun entre Dieu, l’âme, le libre arbitre, la nature de la conscience, ou encore celle de l’univers, de l’espace et du temps ? Ce sont assurément des questions difficiles, qui n’admettent ni réponses toutes faites ni réponses définitives. Ce sont également les grandes questions philoso-phiques, quintessentielles, auxquelles tout le monde est amené à réfléchir au moins une fois dans sa vie. Aussi vont-elles de pair avec les inévitables « Qui suis-je ? Où suis-je ? Qu’est-ce que l’univers ? » Elles se cachent derrière des questions pressantes relatives au sens de la vie et à ce qu’il adviendra de nous après notre mort. Elles se tapissent encore sous des interrogations existentielles concernant nos croyances envers un quelconque ordre divin.
Ces questions ouvrent également la porte à de grands débats, souvent sans fin, où il est facile de camper sur ses convictions tout en se lançant dans des argumentations aussi houleuses que stériles. Elles ont par ailleurs fait couler beaucoup d’encre au travers de nombreux livres qui jalonnent l’histoire et les époques. Elles ont en fait accompagné l’homme depuis la nuit des temps. Aussi, qu’est-il bien possible d’y ajouter ?
La contribution que j’aimerais y apporter consiste surtout à prendre un peu de recul par rapport à tous ces sujets, de manière à les traiter collectivement plutôt qu’individuellement. Ces questions me semblent en effet correspondre aux multiples facettes d’un tout encore plus vaste que ce qu’elles laissent présager au premier regard. Car, par-delà leur dissemblance, le dénominateur commun qui les relie est assurément couplé à la question si simple et si redoutable : « qu’est-ce que la réalité ? Qu’est-ce qui est vrai ? »
Ces interrogations ont ainsi la particularité de flirter entre la physique et la métaphysique, et la frontière qui délimite ces deux mondes s’avère extrêmement ténue et subtile. Aussi est-il d’autant plus facile de traverser cette ligne de démarcation et de passer d’un côté à l’autre sans même s’en être rendu compte. La méconnaissance de cette frontière constitue, pour moi, la cause première des controverses qui accompagnent ces questions. C’est pourquoi j’aimerais explorer et faire prendre conscience de cette dualité autant que possible. Il s’agit d’un exercice délicat, car, bien que cette limite existe, elle ne sera jamais connue parfaitement. Elle ceinture en effet l’étendue complète du savoir auquel nous pourrons un jour accéder. Par définition, nous ne pouvons que tendre vers cette frontière, asymptotiquement, tout en déployant des efforts de plus en plus colossaux pour y arriver. Il n’est pas possible de pousser la connaissance au-delà de la physique et de réaliser une percée triomphante sur le territoire de la métaphysique. Au mieux pouvons-nous simplement énumérer les choses qui se cachent dans ce « no man’s land », sans avoir la possibilité de les comprendre vraiment.
Il est bien sûr tentant de penser que cette limite n’existe pas et que la science viendra à bout de toutes les questions à force de persévérance et de temps. Après tout, la science n’a-t-elle pas levé un nombre incroyable de mystères depuis son avènement, repoussant toujours plus loin les limites de notre connaissance ? Mais rien n’est moins vrai. La science se révèle fondamentalement incapable de donner toutes les réponses. Ce n’est pas une profession de foi que j’avance ici ; il s’agit d’un fait bien connu qui peut se démontrer par la logique elle-même [1]J’invite le lecteur intéressé à découvrir le livre « The Outer Limits of Reason » pour une découverte ludique sur le sujet. Une étude étendue de la question est également menée dans le livre « Les Limites de la Connaissance » de Hervé Zwirn. Les arguments qui suivent dans ce chapitre en sont tirés directement. . Au-delà de ce que nous connaissons se cache l’ensemble des choses que nous ne saurons jamais. Au mieux, nous pouvons identifier certaines d’entre elles, mais elles ne représentent néanmoins qu’une infime partie de ce que nous ne savons même pas que nous ignorerons toujours. L’obstacle qui ceinture l’ensemble des connaissances accessibles n’est pas, tel un mur, une difficulté qui pourrait s’abattre à coups de pioche. Il s’agit plutôt d’un gouffre sans fond qu’il est illusoire de vouloir franchir, car il n’y a tout simplement rien plus loin. Aussi, ce qu’a accompli la science n’a jamais vraiment été de repousser les limites de la connaissance, mais bien de mieux en cerner l’abîme.
La maison bâtie sur le sable
Au début du XXe siècle, scientifiques et mathématiciens caressaient encore l’espoir que la notion de vérité absolue ait du sens, et que le but de leurs disciplines consiste à appréhender la réalité qu’elles décrivaient. Du côté scientifique, cet idéal était représenté par les empiristes logiques du Cercle de Vienne. Le programme de Hilbert, quant à lui, en formait en quelque sorte le pendant mathématique. Tous deux avaient pour ambition d’échafauder des constructions solides et méthodiques, hors de tout doute, sur base de fondations saines et inébranlables.
Le Cercle de Vienne est un mouvement qui opéra dans les années 1920 et qui regroupa philosophes et scientifiques autour d’un idéal de construction de la « conception scientifique du monde ». Ses idées sousjacentes s’articulèrent à partir de positions philosophiques rationalistes et empiriques fortes. L’empirisme logique qu’il développa rejetta ainsi tout discours méta-physique, sous prétexte d’être dépourvu de sens. En somme, seul importait de savoir le comment, le pourquoi restant lui hors de propos. Seules les données accessibles à l’expérience étaient considérées comme porteuses de signification sur la réalité du monde que nous pouvons observer. Selon ce point de vue, le but de la science revenait à appréhender les lois fournissant une description adéquate de l’univers. En d’autres termes, ces dernières devaient permettre de présenter et de prédire les phénomènes de notre réalité afin de tendre par incréments successifs vers la connaissance parfaite du monde. Au premier abord, rien ne semblait pouvoir détourner l’empirisme logique de la noble quête qu’il s’était fixée.
Pour se donner les moyens de leurs ambitions, les empiristes se sont armés d’outils a priori incontestables et leur méthode peut se décrire comme suit. Premièrement, seules les observations directes et immédiates du monde réalisées au travers d’expériences doivent être considérées comme porteuses de sens et d’information. Sur base de ces observations, la science a alors pour tâche de proposer des lois et des modèles permettant de capturer l’essence de la mécanique sous-jacente aux données récoltées. Les déductions qui peuvent être tirées de ces lois doivent ensuite être formalisées au moyen de toute la rigueur de la logique formelle, seule à même d’éviter toutes ambiguïtés ou incohérences du langage ordinaire. Enfin, ces lois doivent permettre d’engendrer des prédictions sur les données observationnelles d’expériences à venir. Celles-ci pourront ainsi être confirmées ou infirmées afin de valider ou non les hypothèses de départ. Cette méthodologie n’accorde donc du sens qu’à ce qui peut être observé, et utilise ensuite les mathématiques et la logique, vraies par construction, pour élaborer des généralisations s’appuyant sur l’induction. Elle apporta de la sorte un cadre on ne peut plus réconfortant pour partir à l’assaut des certitudes du monde.
Ce cadre rigoureux étant fixé comme base inattaquable, la science était alors dotée, a priori, d’une solidité à toute épreuve. Il ne restait plus qu’à construire l’échafaudage de la connaissance en empilant progressivement les découvertes les unes sur les autres, pour tendre vers les cieux. Mais aussi noble que fût cette conviction, il n’en demeurait pas moins que, contre toute apparence, l’édifice ainsi construit reposait sur du sable. De nombreuses réflexions menées par la suite au début du XXe siècle ont en effet démontré que ces fondations se révélaient bien plus fragiles qu’espérées, et ce pour de multiples raisons.
Par exemple, la notion de « sens » d’un énoncé relève de la possibilité de vérification de ses prédictions. Mais qu’entend-on par « vérification » ? Cela semble dépendre des capacités de la personne qui en a la charge, de ses connaissances et des moyens technologiques de son époque. Dès lors, la notion de « sens » apparaît variable dans le temps et très loin du caractère absolu qu’on voudrait bien lui attribuer. Nous pouvons mettre cette difficulté de côté, mais il apparaît également impossible de démontrer quoi que ce soit par une une logique inductive, seule à même de pouvoir dresser une conclusion générale sur un nombre fini de faits. Car quand bien même un phénomène s’est produit à l’identique une myriade de fois par le passé, rien ne peut prouver qu’il continuera à en être de la sorte par la suite. Et bien que tout laisse présager que les lois à l’oeuvre dans l’univers sont immuables, cela restera toujours une conjecture. Il en résulte qu’une loi demeure valide tant qu’un événement contraire n’a pas été observé, ce qui lui ôte tout caractère absolu.
Pour continuer, la notion même de véracité des données observationnelles peut être remise en cause, car augurer qu’elles correspondent à une quelconque réalité relève de la métaphysique. Il n’est pas possible d’énoncer une observation sans se référer à aucun autre concept préétabli auquel nous attribuons également du sens. Autrement dit, il n’est pas envisageable de réaliser des observations pures ne comportant aucun a priori sur leur interprétation. Aussi, à défaut de se situer hors de doute, les données observationnelles doivent pareillement se contenter d’être révisables et corrigibles.
Ce que les attaques répétées à l’encontre de l’empirisme logique ont finalement engendré est que la notion de signification n’existe pas isolément. Celle-ci doit être considérée dans le cadre du corpus scientifique tout entier. Chaque expérience doit être confrontée à tout le savoir en cours et contribue à corroborer les théories en place, ou pas. Dans ce dernier cas, certaines révolutions conceptuelles majeures peuvent amener à restructurer l’entièreté des théories autour de nouveaux paradigmes disruptifs [2]Par exemple, la relativité générale d’Einstein a complètement remis en cause ce que nous considérions comme vrai à la lumière de la mécanique Newtonienne. . Cet holisme sémantique implique que, faute de représenter un édifice reposant sur des bases indestructibles, la science peut au mieux être considérée comme une structure autoportante flottant à la surface des eaux noires et insondables de la réalité. En ce sens, la méthode scientifique demeure le meilleur moyen de construire itérativement la notion de vérité, même si elle ne peut que fondamentalement échouer à la définir de façon rationnelle et absolue.
Il est facile de se convaincre que la structure bâtie par la méthode scientifique ne peut pas, même idéalement, toucher à la notion de ce qui est ontologiquement réel. Cette incapacité provient du fait que, quand bien même l’humanité posséderait tout le compte rendu de toutes les expériences observationnelles possibles et imaginables sur l’univers, il demeurerait envisageable d’en extraire plusieurs « théories du tout » incompatibles. C’est ce que l’on appelle la « sous-détermination des théories ». Diverses théories pourraient postuler l’existence de concepts intermédiaires radicalement différents pour expliquer les mêmes faits observés. En conséquence, la nature ontologique de ces postulats se révélerait tout simplement vide de sens et ne pourrait prétendre à aucune notion de réalité.
Une autre manière d’entrevoir la provenance de cette limite consiste à se rendre compte que certains phénomènes requièrent d’être observés de l’extérieur pour en cerner le niveau plus fondamental, afin d’être compris. Un biologiste doit se plonger dans la chimie organique pour comprendre comment fonctionne la photosynthèse. Un chimiste doit descendre au niveau de l’électromagnétisme de la physique pour déterminer comment ces réactions photosynthétiques ont lieu. Un physicien doit étudier la physique fondamentale pour saisir l’origine de l’électromagnétisme. Mais rien ne permet ensuite d’appréhender l’origine de cette même physique ni pourquoi elle existe. L’être humain fait partie intégrante de l’univers et, en tant que tel, il ne nous est pas toujours possible d’adopter ce point de vue extérieur, indispensable dès lors que l’on désire saisir pleinement le fonctionnement des rouages internes du monde que l’on étudie.
Dissolution du roc ?
Le fait que nous faisons intégralement partie de l’univers que nous voulons observer et comprendre limite assurément notre marge de manœuvre pour en capturer les plus petits raffinements. D’une certaine manière, la réalité nous résiste et nous résistera toujours, car il n’est tout simplement pas possible d’appréhender les axiomes fondamentaux qui régissent le grand ballet cosmique auquel nous prenons part. La construction empirique de la science reposera éternellement sur une couche d’incertitude voilant à jamais la vraie nature du réel. Au mieux pourrions-nous un jour établir une « théorie du tout » adéquate qui ne sera plus jamais remise en cause, mais cette théorie n’accédera jamais au statut ontologique tant convoité de vérité ou de réalité.
Il existe cependant un domaine où la notion même de vérité est postulée strictement dès le départ. Le monde mathématique repose en effet sur des théories axiomatiques construites rigoureusement sur base de filiations logiques s’écoulant depuis des hypothèses posées vraies dès le début. La notion de vérité y est bien sûr différente, en ce sens que les mathématiciens ne cherchent pas forcément à établir une quelconque correspondance entre leurs théorèmes et la réalité [3]Bien sûr, un système axiomatique est beaucoup plus intéressant s’il est possible de faire correspondre les théorèmes qui en découlent avec une quelconque « réalité » du monde. C’est en ce sens que les mathématiques peuvent être utiles, c’est-à-dire si elles œuvrent à résoudre des problèmes concrets. Cependant, beaucoup de théories mathématiques ont été développées sans qu’on leur trouve une quelconque utilité avant des années. . Ce qu’ils recherchent, ce sont toutes les conséquences logiques découlant d’un certain nombre de prémisses. Un théorème est ainsi vrai, avec une certitude absolue, s’il existe une suite d’opérations logiques qui y conduit depuis ces mêmes postulats. Avec une méthode de raisonnement correcte, les mathématiciens sont donc assurés de pouvoir partir à la découverte de vérités hors de tout soupçon. De la même façon, les mathématiques doivent pouvoir apporter une réponse (une démonstration), à toute question sensée. Tout ne devrait alors tenir qu’à la bonne définition de ce que constitue une méthode de raisonnement correcte.
Les mathématiciens de la fin du XIXe et du début du XXe siècle furent néanmoins confrontés à des questions délicates concernant leur méthode de raisonnement. Une bonne théorie mathématique doit tout d’abord apparaître consistante, ce qui signifie qu’elle ne doit receler aucune contradiction. Celles-ci surviennent dès lors qu’il est possible de démontrer à la fois un théorème et son contraire. Une théorie doit également se montrer complète, c’est-à-dire qu’il doit être possible de démontrer (ou d’infirmer) toutes les assertions qu’elle peut exprimer. Même si ces requis semblent aller de soi, il s’avéra que le bon sens et l’intuition ne suffisaient pas pour confectionner de telles constructions. Un exemple révélateur de cette problématique émergea de l’élaboration de la théorie des ensembles par Georg Cantor vers 1880. Bien que puissante et élégante, il se trouva qu’elle engendrait aussi une multitude de paradoxes dans son sillage.
L’illustration par excellence des paradoxes mathématiques provient du paradoxe d’Epiménide, encore appelé paradoxe du menteur. Sa formulation moderne s’énonce comme ceci : « Cette phrase est fausse ». Cette assertion ne peut être ni vraie ni fausse, et bouscule en ce sens l’idéal dichotomique de l’idée de vérité. Il était donc primordial de bannir ce genre de non-sens des constructions mathématiques. Or, à y regarder de plus près, il apparut que le coupable récurrent de toutes les situations paradoxales engendrées par les différentes théories venait de l’autoréférence. Celle-ci paraît évidente dans le paradoxe d’Epiménide, car le déterminant « cette » établit une référence directe sur l’assertion elle-même, fermant ainsi une boucle. Mais des boucles peuvent également être créées de façon beaucoup plus subtile au travers de multiples assertions qui, prises isolément, semblent parfaitement ordinaires. La crainte des mathématiciens du début du siècle était liée à la possibilité que ce genre de paradoxes puisse, au-delà de la théorie des ensembles, émerger également dans d’autres branches des mathématiques.
Pressentant que l’autoréférence constituait la cause de tous les maux, Russel et Whitehead se lancèrent dans une monumentale entreprise de refonte des fondements des mathématiques, en particulier en ce qui concerne la théorie des ensembles, de la logique et de l’arithmétique. Ce travail se concrétisa dans l’écriture des trois volumes des Principia Mathematica, rédigés au début des années 1910. Leur idée de base, pour éradiquer toute boucle potentielle, consista à définir une hiérarchie stricte de types lors de la composition des objets de leur théorie. De cette façon, un élément ne peut être construit quand se référant strictement à ceux de types inférieurs dans la hiérarchie. Cette structuration empêche qu’un élément de bas niveau puisse se référer à un objet placé plus haut, et donc de créer une boucle d’autoréférence au passage. Leur méthodologie ne résolvait certes pas le paradoxe du menteur, mais elle permettait d’éluder le problème en interdisant qu’une telle question puisse être formulée au sein de leur théorie.
Une interrogation continuait toutefois de préoccuper les mathématiciens, et particulièrement David Hilbert. Car personne n’était parfaitement convaincu que la méthodologie suivie dans les Principia Mathematica garantisse, de manière absolue, de ne jamais dériver un jour une contradiction. Hilbert, qui disposait d’une grande influence sur les pairs de son époque, échafauda alors un programme visant à s’assurer des fondations de l’arithmétique. Il demanda à la communauté mondiale de démontrer, de façon rigoureuse, que le système défini dans les Principia Mathematica était à la fois consistant et complet [4]C’est-à-dire que la théorie ne contient aucune contradiction et que toute assertion vraie puisse être démontrée dans ce même cadre. .
Ce défi occupa beaucoup de mathématiciens jusqu’à l’année 1931, date à laquelle Kurt Gödel publia son fameux mémoire qui pulvérisa cet idéal de vérité incarné par le programme de Hilbert. Gödel démontra de façon rigoureuse que, non seulement les Principia Mathematica souffraient de failles incurables l’empêchant d’atteindre cet idéal, mais surtout qu’aucune théorie capable de formaliser l’arithmétique ne pourrait jamais en être exemptes. La thèse de Gödel dévoile en effet que, si un système formel se montre assez puissant pour axiomatiser l’arithmétique, alors il est soit incomplet, soit inconsistant. En d’autres termes, un tel système apparaît fondamentalement inapte à démontrer sa complétude en son sein, sauf dans le cas problématique où il recèlerait de l’inconsistance. La quête d’une théorie mathématique capable de démontrer sa propre vérité est ainsi vouée éternellement à l’échec.
Ce qu’il y a de particulièrement irrésistible dans la démonstration de Gödel, c’est qu’elle est basée sur l’élaboration d’une boucle d’autoréférence paradoxale construite dans le langage arithmétique lui-même ; alors que tout avait été mis en œuvre dans les Principia Mathematica pour éviter l’émergence de telles « monstruosités ». En substance, l’assertion mise au point par Gödel dans le langage arithmétique est équivalente à l’expression : « Cette assertion de la théorie des nombres n’est pas démontrable dans les Principia Mathematica » [5]J’invite le lecteur intéressé à découvrir le livre « Les Brins d’une Guirlande Eternelle », de Douglas Hofstadter, pour un voyage immersif à propos de la thèse de Gödel et du monde des boucles d’autoréférence en général. . La vérité ou la fausseté de ce théorème débouche alors, soit sur l’incomplétude, soit sur l’incohérence, de la théorie sous-jacente. Mais comme il est possible de construire ce théorème indépendamment de la théorie considérée, il fallut admettre que le socle inébranlable sur lequel les mathématiciens du début du XXe siècle voulaient asseoir leurs raisonnements n’avait pas plus de consistance qu’un mirage.
Inévitabilité de la métaphysique
Le théorème de Gödel ruine tout espoir de pouvoir démontrer toutes les vérités engendrées par un système d’axiomes. En ce sens, vérité et démontrabilité constituent deux aspects différents ne se recouvrant que partiellement. Le corollaire de ce constat implique aussi que, même si les prémisses d’une théorie mathématique sont considérées comme vraies par définition, certaines vérités qui en découlent resteront à jamais hors de portée. Il demeure néanmoins possible d’assouplir les exigences de départ et de démontrer la cohérence et la complétude d’un système formel, mais cela n’est réalisable qu’en sortant de ce système. Autrement dit, il est nécessaire d’en étendre sa portée initiale en lui ajoutant des axiomes additionnels pour y arriver. C’est seulement dans ce cadre extérieur qu’une telle démonstration peut avoir lieu. Mais le problème provient de cette manœuvre qui ne fait que reporter le problème au niveau supérieur, puisque la cohérence et la complétude du nouveau système, elles, ne pourraient pas être établies [6]Tout du moins, sans avoir encore une fois à sortir du cadre en proposant à nouveau certains axiomes additionnels. Cet ajout pose le problème d’une régression à l’infini et expose également le nouveau système à contenir des contradictions. .
Pendant un temps, mathématiciens et logiciens ont estimé que la portée de la thèse de Gödel ne concernait finalement que des théorèmes extrêmement particuliers de la théorie des nombres, construits sur mesure pour exhiber un paradoxe. L’impact sur leur travail, lui, demeurait virtuellement inexistant. Mais cet aveuglement ne dura qu’un temps, car les limitations qu’elle expose se sont depuis immiscées un peu partout et dans des domaines très concrets.
Un exemple singulièrement parlant dans le contexte de l’informatique est donné par le problème de l’arrêt. Celui-ci commence par considérer un programme informatique P (une suite d’instructions bien établie, donc) ayant la charge d’effectuer divers traitements algorithmiques afin de délivrer une réponse à une problématique quelconque. La question consiste ensuite à se demander s’il est possible de concevoir un programme H qui, quel que soit P donné comme paramètre, détermine si ce programme P finira par s’arrêter pour délivrer sa réponse ou tournera en rond indéfiniment, piégé quelque part dans une boucle sans fin. La sortie attendue du programme H se veut donc extrêmement concrète dans la mesure où il lui suffit de répondre par oui ou non, pour un programme P donné.
La question fut posée par Alan Turing et il y apporta lui-même la réponse en 1936 : aucun programme ne peut résoudre le problème de l’arrêt. Ce qu’il faut bien comprendre ici au niveau de cette impossibilité, c’est que nous ne parlons pas d’un problème difficile irréalisable faute de ressources suffisantes. Il ne s’agit pas non plus d’un manque provenant de la technologie ou des compétences des programmeurs. Non, le problème de l’arrêt se révèle tout simplement indécidable, ce qui signifie que le programme H n’existe pas. En d’autres termes, une portion d’univers aussi commode qu’un ordinateur, dans la mesure où celui-ci obéit strictement à des lois élémentaires arbitrairement fixées par nous, suit un comportement qu’il n’est tout simplement pas possible de questionner ou de prédire avec certitude.
Toutes les questions évoquées au début du chapitre sont fondamentales et disposent de la particularité de devoir sortir du système pour pouvoir y répondre pleinement. Nous sommes toutefois prisonniers dans notre univers sans possibilité de nous en extraire ou de savoir ce qu’il y a en dehors. Nous ne pouvons dès lors que nous heurter à un plafond de verre, rendant illusoire toute progression au-delà d’un certain niveau de connaissance. Ce plafond est par ailleurs double. Non seulement il n’est pas possible d’identifier avec certitude les mécanismes fondamentaux à l’œuvre dans l’univers, mais quand bien même ceux-ci seraient connus, parfaitement intelligibles et simples, l’évolution du monde continuerait à nous échapper complètement.
Cette limitation ne trouve aucunement ses sources dans une quelconque difficulté technique qu’il serait possible d’amenuiser avec le temps. Il s’agit d’une barrière absolue qui nous empêche radicalement d’apporter les réponses à toutes les questions. La métaphysique ne concerne donc pas les questions dépourvues de sens, comme le concevaient les empiristes logiques. Elle touche plutôt l’ensemble des questions sensées pour lesquelles il n’est tout simplement pas possible d’obtenir de réponses. Les formidables progrès accomplis par la science ne doivent dès lors pas nous faire oublier ce qu’elle cache derrière elle. Même si elle surfe de succès en succès, dévoilant tantôt l’intimité de la matière, débusquant plus tard les origines du cosmos, la science ne peut prétendre combler toutes les interrogations de l’homme. Il subsistera à jamais une part sombre et impénétrable de questionnement en filigrane.
Guide de lecture
Prendre la mesure de sa propre ignorance est primordial pour aller de l’avant et faire la part entre ce qu’il est difficile de connaître, techniquement, et ce que nous savons que nous ne saurons jamais. Mais le fait que certaines questions n’admettent d’emblée aucune réponse claire et définitive ne veut pas dire que nous devons cesser de nous les poser. Il est tentant de simplement se référer aux dogmes établis, ou de laisser planer le mystère. Mais je reste persuadé qu’il est exaltant de pousser la réflexion sur ces questions afin d’entrevoir autant que possible ce que cache le voile de la réalité.
Les sujets abordés par ce livre flirtent tous avec la limite de ce qu’il est fondamentalement possible de savoir. Ce que j’y exprime n’a donc pas valeur de vérité absolue ; il ne s’agit que d’un point de vue construit sur un ensemble de raisonnements logiques et de réflexions personnelles. Je n’ai également pas pour but de présenter exhaustivement les différents courants philosophiques qui accompagnent ces questions. Par contre, mon intention consiste surtout à ouvrir l’esprit du lecteur à d’autres perspectives et à différentes possibilités. En ce sens, mon but sera atteint si j’arrive à briser la résistance des nombreuses idées préconçues que, culturellement, nous nous forgeons depuis l’enfance.
Quoi qu’il en soit, ce livre aurait pu être écrit presque entièrement au conditionnel pour refléter la prudence qu’il convient de garder en s’exprimant sur ces sujets. L’écriture s’en serait néanmoins retrouvée alourdie et je me contenterai dès lors de le spécifier une bonne fois pour toutes, ici dans cette introduction : tous les développements présentés dans ce texte doivent être pris comme de simples suggestions permettant de bousculer les idées toutes faites auxquelles nous nous sommes habitués à croire. Ils traduisent bien sûr mon opinion sur les questions abordées, mais la vérité est certainement bien plus vertigineuse que ces simples points de vue. Comme l’énonça H. L. Mencken : « Il existe pour chaque problème complexe une solution simple, directe et fausse ». En d’autres termes, n’acceptez certainement pas mes propos mot pour mot. Comme pour tout texte qui s’aventure à la limite des faits scientifiques, il n’est pas possible de présenter des idées qui ne sont pas biaisées vers une direction privilégiée qui vous tient à cœur. J’ai parfaitement conscience de mes préférences, mais je sais aussi que mes propres conclusions me déroutent moi-même ou me plongent dans la perplexité. Soyez donc indulgent, mais soyez aussi critique, car c’est justement dans le mystère et dans le débat qu’il génère que réside toute la beauté du problème.
Ce livre s’articule autour de différents chapitres relativement indépendants et s’attaquant chacun à une grande question philosophique. L’ordre dans lequel ils sont présentés constitue néanmoins le fil rouge de la réflexion et permet, de fil en aiguille, de passer de la question de l’origine de l’univers au sens que nous pouvons finalement lui attribuer. Le premier chapitre de ce document traite de la question de Dieu. Bastion de la foi pour certains, chimère pour d’autres, Dieu est certainement l’un des sujets les plus controversés. Le deuxième chapitre se place en lien direct avec le premier, dans la mesure où il s’interroge sur le propre de l’être humain, c’est-à-dire sur la nature de son âme et de son libre arbitre. Les deux chapitres suivants continuent cette réflexion, en essayant de cerner l’essence de notre conscience : le chapitre trois met pour cela en scène un être fictif robotique, tandis que le quatrième s’attaque au cœur du sujet, la conscience de l’être humain. Le chapitre cinq part d’une simple question sur la nature de l’électron, pour s’aventurer ensuite sur le terrain de la nature de la réalité. Nous y verrons que celle-ci s’apparente de manière troublante avec la notion d’information. Le chapitre six s’attaque à deux piliers qui semblent soutenir et transcender l’univers : l’espace et le temps. Mais comme tous les autres concepts abordés dans ce livre, ceux-ci ne se révèlent peut-être pas aussi tangibles que nous voulons le croire. Enfin, le septième et dernier chapitre pose la question du sens que nous pouvons attribuer à cette réalité. Différentes conceptions philosophiques y sont présentées afin de débattre sur ce que nous pouvons réellement appréhender sur la nature de notre univers.
Ce texte de Jean-Sébastien Gonsette est publié sous la license CC BY-NC-ND 4.0
[1]: J’invite le lecteur intéressé à découvrir le livre « The Outer Limits of Reason » pour une découverte ludique sur le sujet. Une étude étendue de la question est également menée dans le livre « Les Limites de la Connaissance » de Hervé Zwirn. Les arguments qui suivent dans ce chapitre en sont tirés directement.
[2]: Par exemple, la relativité générale d’Einstein a complètement remis en cause ce que nous considérions comme vrai à la lumière de la mécanique Newtonienne.
[3]: Bien sûr, un système axiomatique est beaucoup plus intéressant s’il est possible de faire correspondre les théorèmes qui en découlent avec une quelconque « réalité » du monde. C’est en ce sens que les mathématiques peuvent être utiles, c’est-à-dire si elles œuvrent à résoudre des problèmes concrets. Cependant, beaucoup de théories mathématiques ont été développées sans qu’on leur trouve une quelconque utilité avant des années.
[4]: C’est-à-dire que la théorie ne contient aucune contradiction et que toute assertion vraie puisse être démontrée dans ce même cadre.
[5]: J’invite le lecteur intéressé à découvrir le livre « Les Brins d’une Guirlande Eternelle », de Douglas Hofstadter, pour un voyage immersif à propos de la thèse de Gödel et du monde des boucles d’autoréférence en général.
[6]: Tout du moins, sans avoir encore une fois à sortir du cadre en proposant à nouveau certains axiomes additionnels. Cet ajout pose le problème d’une régression à l’infini et expose également le nouveau système à contenir des contradictions.