Semer des graines de doute. Le Contexte Scientifique

Ce billet fait suite à celui intitulé Semer des graines de doute. Introduction publié ici le 21 juillet dernier.

Au cours du XXème siècle la science connut une évolution fulgurante remettant en cause le paradigme cartésien[1] d’un univers déterministe régit pas des lois mécanistes, au profit d’un univers relativiste et probabiliste au sein duquel la réalité objective n’est plus qu’un idéal inatteignable. Le modèle de l’atome établit par Niels Bohr dans les années 1910, un noyau central autour duquel gravitent des électrons, n’a plus rien à voir avec ce que l’on sait aujourd’hui de la nature de l’atome, et pourtant cette image reste gravée dans nos esprits et reste celle globalement présentée dans les cours de physiques des lycéens aujourd’hui.

La temporalité absolue (le temps s’écoule à la même vitesse partout dans l’univers) fut détruite par la relativité d’Einstein dans les années 1910 également et la notion de direction temporelle obligatoire passé -> présent -> futur, tout comme la notion de matière, fut remis en cause par la révolution quantique entre les années 20 et 50. La nature profonde du réel est, du point de vue de la physique quantique, beaucoup plus incertaine aujourd’hui qu’elle ne l’était voici un siècle.

La coexistence de la relativité et de la physique quantique ne va pas sans poser des paradoxes tels la conservation de l’information qui, s’ils semblent hautement académiques aux non spécialistes, engendrent néanmoins un questionnement sur la nature fondamentale de l’Univers. En cosmologie, le modèle classique du « Big Bang », généralement présenté comme une certitude scientifique au grand public, n’est toujours qu’une hypothèse dont la validation définitive reste extrêmement incertaine. Les éléments théoriques qu’il a fallu ajouter au modèle pour qu’il fonctionne, tel la matière noire, restent non identifiés dans la réalité même si de nombreux efforts sont faits en ce sens[2].

Il existe en fait une fracture profonde entre l’image d’un monde stable et déterministe que nous prête l’éducation scientifique scolaire et l’image floue que perçoivent les physiciens en recherche fondamentale. Depuis quelques années le modèle standard de la physique, issu des grandes avancées du XXème siècle, est régulièrement mis à mal par les expériences de plus en plus poussées réalisées avec des appareillages très sophistiqués tel le Large Hydron Collider (LHC) du CERN. La notion d’espace-temps[3], pierre angulaire de la cosmologie issue des travaux d’Einstein, est à l’heure actuelle remise en cause en tant que réalité fondamentale au profit d’une nouvelle description à huit dimensions intégrant un espace-temps et un espace-momentum (anglicisme signifiant « quantité en mouvement »)[4].

Certes ces avancées sont publiées par des magasines accessibles  tels Sciences & Vie, New Scientist, Scientific American et bien d’autres encore mais l’impact sur le grand public reste marginal. La capacité de prédiction des phénomènes naturels, météorologiques, biologiques voir psychiques que nous promettait la science de nos parents s’est également heurtée, dans les années 70, à la découverte du chaos : Edward Lorentz, brillant mathématicien et météorologue des années 60 , se rendit compte que la prédiction de tout évènement non périodique (cad ne passant jamais deux fois par le même état, donc l’immense majorité des phénomènes naturels) est fondamentalement imprévisible mais peut néanmoins se trouver « attiré » vers certains types d’états ou comportements par le biais de ce que l’on appelle des « attracteurs étranges ». Le chaos est aujourd’hui souvent introduit sous le terme de l’effet papillon : de toutes petites variations peuvent modifier de manière très importante le comportement d’un système global.

Ce que la science peut nous dire du monde évolue au fil du temps et de l’accumulation des connaissances, mais son moteur reste la curiosité, l’intuition et la capacité à toujours remettre en cause les paradigmes du moment. Une science devenue formelle et dogmatique sous le carcan institutionnel n’est autre chose qu’une forme de religion, et cette affirmation rejoint entre autres l’analyse du philosophe et médecin Georges Canguilhem (qui fut l’enseignant de de Michel Foucault et Gilles Deleuze) quand il dénonçait dans les années 50 l’existence d’ « idéologies scientifiques » et « la prétention de la science à dissoudre dans l’anonymat de l’environnement mécanique, physique et chimique ces centres d’organisation , d’adaptation et d’invention que sont les êtres vivants[5] ».

Richard Feynman, génie extraordinaire[6] et Prix Nobel de Physique en 1965, défendait la primauté du doute et le voyait non pas comme une faiblesse de notre capacité à savoir mais comme l’essence de toute connaissance. Pour lui l’alternative à l’incertitude est l’autoritarisme, contre lequel la science s’est battue pendant des siècles. Ce n’est qu’en comprenant et intégrant la notion d’incertitude que les gens peuvent espérer évaluer les multiples assertions dont on les bombarde jour après jour. La capacité de rester sceptique, de douter raisonnablement de la réalité de tout résultat, d’accepter de remettre en cause n’importe quel paradigme au vu d’éléments nouveaux est l’essence même de la démarche scientifique au sens large.

Mais ce terme de « démarche scientifique » recouvre de nombreux concepts variant selon les époques, et ceux qui s’en réclament omettent généralement de spécifier de quelle démarche, précisément, ils relèvent. Dans les cas où la science est associée à la politique et aux affaires, notamment (mais pas seulement) dans le domaine dit des « sciences de la vie », la référence à la démarche scientifique est souvent un argument marketing visant à manipuler le public (le rassurer ou l’effrayer, selon les cas): comme le dit le journaliste scientifique Michel de Pracontal sur son blog[7], « …même si la recherche de la vérité reste l’idéal de la démarche scientifique, la pratique quotidienne est souvent aux antipodes de cet idéal. L’OMS (organisation mondiale de la santé) a lancé une alerte mondiale à propos d’un virus de grippe, le H1N1, qui ne s’est pas révélé particulièrement dangereux; le risque supposé associé à l’utilisation des téléphones portables a été «officialisé» par la même OMS alors qu’aucune preuve scientifique solide ne l’établit; à l’inverse, dans l’affaire du Mediator, les experts en pharmaco-épidémiologie les plus réputés sont passés à côté d’un risque réel qu’ils avaient sous le nez et qu’ils n’ont pas dénoncé. Ces distorsions de la démarche scientifique sont devenues trop fréquentes pour qu’on puisse les considérer comme de simples accidents de parcours. La science contemporaine est sortie de sa tour d’ivoire. Elle ne travaille pas dans un domaine protégé, elle est de plus en plus prises dans des enjeux sociaux, politiques, économiques.»

Ainsi, sur base du postulat présenté en introduction affirmant que les Etats qui gèrent ces enjeux sont en grande partie aux mains d’intérêts particuliers plutôt que de l’intérêt général, il devient excessivement difficile de continuer à croire à la bonne foi des communicants représentant ces intérêts lorsqu’ils se drapent, avec toute l’arrogance requise, dans le voile immaculé de la neutralité scientifique. On notera par exemple que fin juillet de cette année l’agence US de surveillance des médicaments, la FDA, a annoncé avoir découvert chez la principale société de recherche sous contrat, Cetero Research, un “système de falsification généralisé” des études pharmacologiques, de celles qui permettent aux grandes entreprises pharmaceutiques d’obtenir des autorisations de mise sur le marché[8]. « Aujourd’hui, où que vous vous tenez dans le monde, la majeure partie des données d’essais cliniques provient d’ailleurs, il faut donc avoir confiance dans le cadre dans lequel ces essais ont été fait », déclare Fergus Sweeney, responsable de la conformité et des inspections à l’Agence européenne du médicament (EMA).

Confiance, maître mot ! La confiance, en matière scientifique, ne peut se baser que sur la certitude de l’intégrité des organisations qui « font » la science, et sur la pertinence de leurs méthodes. Sur le premier, il suffit de suivre l’actualité via la plume d’analystes indépendants[9] pour se rendre compte à quel point la primauté de la rentabilité rend irresponsable toute confiance a priori dans les organisations qui y sont soumises. Sur le second, il s’agit avant tout de préciser de quelle méthode il s’agit car il existe de nombreuses méthodes générant des résultats différents.

L’image que nous avons de la méthode scientifique est souvent réduite à sa déclinaison hypothético-déductive ou démarche expérimentale : formuler une hypothèse afin d’en déduire des conséquences observables futures (prédiction) – mais également passées (rétrodiction) – permettant d’en déterminer la validité[10]. L’idée que l’on ne doit construire les connaissances que sur la base de l’observation, sans idée préconçue du réel (inductivisme) reste très présente car a priori parfaitement objective, même si elle est considérée comme « naïve »  par la communauté scientifique et les théoriciens de la connaissance.

En effet une importante évolution de la pensée scientifique eut lieu dans les années trente avec l’œuvre du philosophe des sciences Karl Popper[11] : selon lui, plutôt que de rechercher des propositions vérifiables le scientifique doit produire des énoncés réfutables. C’est cette réfutabilité[12] qui doit constituer le critère de démarcation entre une hypothèse scientifique et une pseudo-hypothèse. Cette approche tend à exclure du champ de la science de nombreux domaines tels les « sciences » sociales et politiques ou la psychanalyse car il est généralement impossible de construire des expériences à même de réfuter ce type de proposition. Cette approche résout le problème de la démarcation entre ce qui relève de la science et ce qui n’en relève pas (la méta-physique).

Bien sur, le fait que tel ou tel domaine ne relève pas de la science ne le rend pas illégitime ni inintéressant pour autant, cela veut simplement dire qu’il est hors du dualisme vrai-faux, qu’il n’est pas basé sur des vérités fondamentales vérifiables. Il faut simplement être prudent en face de résultats « scientifiques » issus de recherches qui ne génèrent pas de propositions réfutables, et ce d’autant plus quand ces résultats sont issus de modèles plutôt que d’observations directes du réel. Par définition un modèle est une version radicalement simplifiée d’une réalité trop complexe pour être étudiée telle quelle, et dont le fonctionnement va dépendre des hypothèses et conditions initiales choisies par les concepteurs dudit modèle – et qui seront modifiées au fil de la recherche afin de « coller » au mieux avec la réalité observée ou d’évaluer des scénarii différents. Mais il est impossible pour une personne non directement impliquée dans ce type de recherche (et encore) d’en évaluer la pertinence, que ce soit en science économique, sociale, climatique ou tout autre domaine soumis à des comportements chaotiques et/ou basé sur des propositions non soumises au principe de réfutabilité.

En l’absence de toute possibilité de preuve de telle ou telle proposition, nous sommes constamment obligés de choisir entre croire et douter. Et ce sans même pouvoir se rattacher au fil rouge que serait une méthode scientifique unique applicable partout car, comme l’écrivait en 1999 le philosophe des sciences Dominique Lecourt[13] : « … il n’y a pas de méthode scientifique, du moins considérée abstraitement comme un ensemble de règles fixes et universelles régissant l’ensemble de l’activité scientifique »[14].

Quelle que soit la méthode utilisée, la recherche n’existe pas dans un vide absolu : les choses se construisent les unes après les autres, la compréhension avance par étapes, les uns basent leur recherche sur des propositions ou résultats antérieurs générés par d’autres, et quelques fois sur leurs erreurs.


[1] En 1637Descartes publia le Discours de la méthode qui contient son explication de la méthode scientifique, c’est-à-dire, une démarche à suivre par étapes afin de parvenir à une vérité. En interprétant sa démarche, on peut la diviser en quatre étapes ;

Objet évident (sujet de l’étude; problème à résoudre & hypothèses)

Diviser le plus possible

Recomposer

Réviser (vue globale; confirmer ou réfuter hypothèses)

Il croyait que toutes les connaissances qu’il avait acquises lors de son éducation n’étaient pas toutes claires, sûres et utiles. Il prétendait donc que sa méthode permettait d’arriver à des connaissances ayant ces caractéristiques. En d’autres mots, arriver à une vérité absolue (expliquer un phénomène, comprendre son fonctionnement, etc.)

 

[3] La notion d’espace-temps a été introduite au début des années 1900 et reprise notamment par Minkowski en 1908 dans un exposé mathématique sur la géométrie de l’espace et du temps telle qu’elle avait été définie par la théorie de la relativité restreinte d’Albert Einstein. Celui-ci avait publié en 1905 un article consacré aux lois fondamentales de l’électromagnétisme Sur l’électrodynamique des corps en mouvement. Cette théorie est l’un des grands bouleversements survenus au début du xxe siècle dans le domaine de la physique.

 

[5] Canguilhem G, La Connaissance de la Vie, Hachette, 1952, p.193

[6] Gleick J., Genius – The life and science of Richard Feynman, New York, Vintage Books, 1992

[12] Une affirmation est dite réfutable s’il est possible de consigner une observation ou de mener une expérience qui, si elle était positive, entrerait en contradiction avec cette affirmation.

La réfutation résout à la fois le problème de la démarcation et celui de la validité :

Une proposition réfutable est réputée être une hypothèse scientifique. Si elle est réfutée elle cesse d’être valide.

En revanche, une proposition non réfutable (irréfutable au sens logique) est catégorisée comme méta-physique (ce qui ne signifie pas qu’elle est illégitime).

Par exemple, l’affirmation « toutes les corneilles sont noires » pourrait être réfutée en observant une corneille blanche.

Par contre « tous les humains sont mortels » est non réfutable, et donc non scientifique, parce que constater l’immortalité d’un humain, seule observation susceptible de la réfuter, est une expérience techniquement impossible. (Source : Wikipédia)

 

[14] Il existe en fait de nombreuses et diverses méthodes scientifiques que l’on peut scinder en deux grands groupes : les méthodes exploratoires (l’expérimentation, l’observation, la modélisation) visant à découvrir de nouveaux principes, et les méthodes justificatives (déduction, induction et abduction) cherchant à distinguer le vrai du faux.

 

 

A propos Vincent Verschoore

Animateur de Ze Rhubarbe Blog depuis 2008.

3 réponses

  1. Anonymous

    “Vous envisagez deux possibiltés, c’est une troisième qui se produit.” avait coutume de dire G. Pompidou. On peut penser tout ce qu’on veut de cet homme, mais ce n’était en tout cas pas un âne. On devrait pourtant s’interroger davatange et plus sérieusement sur ce phénomène bien réel et absolument constant qui traduit une interaction de type métaphysique entre l’esprit et la matière.

  2. Frédéric

    C’est un magnifique résumé de la difficulté que représente l’acquisition des connaissances et l’utilisation que nous en faisons pour interpréter le monde. Nous avons basé notre système scientifique en grande partie sur la dualité vrai/faux et il semble aujourd’hui que nous soyons prisonnier de ce postulat car nous laissons de côté l’autre moitié du problème ni vrai ni faux/ne sais pas…

  3. Anonymous

    C’est pour cela que l’approche de Karl Popper est intéressante: faire en sorte que la science “pure” ne s’occupe que de ce qui peut à priori se réfuter – donc tomber dans la catégorie vrai ou faux. Il faudrait trouver un autre terme, quelque part entre science et philosophie, pour tout ce qui ne tombe pas dans ces catégories mais n’en est pas moins intéressant: économie, sciences sociales, etc…

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.