probabilités, corrélations: quand la science ne sait plus

Classé dans : à partir des idées & idéologies | 0

La science aurait besoin de toujours plus de données. Mais si les données disent le vrai, si elles donnent les réponses, si elles valent connaissance, on devrait assister aujourd’hui à l’extinction définitive des controverses scientifiques. Comment expliquer alors que des scientifiques de haut niveau puissent soutenir des points de vue radicalement opposés sur une question comme celle du climat qui compte parmi les plus documentées?

Une hypothèse d’explication est que, quand le nombre de données s’accroit, leur dispersion augmente, leur fiabilité et leur pertinence deviennent très inégales, leurs capacités à prédire ou à valider tend à diminuer et ce à un point tel qu’il devient inévitable d’inverser le processus: gérer les données d’abord, raisonner ensuite.

  • les corrélations constituent la seule façon de donner du sens à une grande masse de données, en amont, où elles se substituent aux causes
  • les probabilités la seule façon d’en donner, en aval, où elles modulent les effets.

Une grande masse de données génère “ mécaniquement ” une grande quantité de corrélations de toutes natures, plus ou moins directes, conditionnelles, voire accidentelles, spécialement dans tout ce qui peut s’apparenter à un système. Mais comment résister à la tentation de voir une cause dissimulée derrière chacune d’elles… spécialement quand chaque cause possible constitue une problématique possible de travail… soit précisément ce qu’un laboratoire de recherche doit proposer pour obtenir des financements. On obtient, par exemple, de cette façon, une liste à la Prévert de tout ce qui parait lié à la maladie d’Alzheimer. Elle s’allonge tous les jours.

Selon Wittgenstein:

une conclusion logique est une conclusion dont on pense qu’elle ne peut pas être autre.

La probabilité, c’est la certitude qu’elle peut l’être.

Tout a sans doute commencé par le calcul d’erreur (peut-on le reprocher aux scientifiques?), qui se fonde sur l’idée qu’un effet pourtant logique peut cependant… ne pas se produire. La probabilité de “ l’effet logique ” est bien entendu très élevée, l’alternative très peu probable, mais… il n’en demeure pas moins que deux effets apparaissent alors liés à une seule cause. Avec les probabilités, on est vite allé bien au-delà. À certains égards cette évolution était inévitable et tout à fait conforme à une honnêteté scientifique soucieuse d’exactitude, qui aurait amené la science à assumer ses incertitudes… avant d’en devenir l’esclave.

Bien résoudre un problème consiste à le considérer sous tous les angles possibles, c’est la phase d’analyse. Elle consiste à en élargir l’approche, avant d’opérer une réduction vers une expression simple qui en est la solution. Le recueil massif de données permet d’élargir l’approche à un niveau jamais atteint, mais à un point tel que sa réduction vers une solution en devient impossible. On recourt alors… aux corrélations et aux probabilités.

Ce qui pourrait admettre le résumé suivant: “ au-delà d’une masse critique, plus on a de données… moins on sait ”.

  • Ce mécanisme nous est familier, nous le côtoyons en permanence dans la vie courante: nous avons besoin de données pour prendre des décisions de tous ordres visant à régler nos problèmes tant domestiques que professionnels. Quelques données supplémentaires nous confortent, mais au-delà, quand les données sur le problème s’accumulent… c’est l’indécision qui progresse.
  • Dans le domaine de la justice, les avocats exploitent constamment ce principe: l’élargissement du propos, l’accumulation de données sur le meurtrier, sur son enfance et son environnement rendent plus difficile le jugement de son acte.
  • Une grande masse de données autorise des sélections de sous-ensembles suffisamment larges pour produire des schémas logiques contradictoires susceptibles d’étayer… n’importe quel préjugé.
  • Dans les discours scientifiques, il n’a jamais été autant question de hasard.

Au niveau général, il est permis de voir là une bonne représentation de l’autorégulation d’une tendance, quand c’est la propre logique d’un renforcement qui, au final, produit un affaiblissement… car peut-on imaginer, en l’état de l’idéologie actuelle, que l’antidote aux insuffisances de la science puisse être autre chose… qu’un recueil encore plus important de données… etc…

Parallèlement, l’affaiblissement de ce qu’on appellera en attendant mieux la “ performance scientifique ” est aussi très tangible dans l’assujettissement grandissant de la science aux intérêts économiques qui la fond vivre. Or les deux principes se renforcent mutuellement. L’éthique du chercheur vacille d’autant plus facilement qu’il est moins sûr de ses conclusions. À l’inverse, il est d’autant moins sûr de ses conclusions que les “ certitudes ” de son commanditaire l’ont déjà amené en dehors de son cheminement intellectuel idéal. Les échecs augmentent. Le doute s’installe et irradie. La science devient suspecte aux yeux d’un nombre croissant de personnes. Les effets induits négatifs ou dangereux de toute innovation, même totalement fictifs, trouvent un écho de plus en plus large dans la population.

L’affaiblissement évoqué ici serait vraisemblablement hétérogène et inégalement réparti. Il concernerait principalement les domaines très assujettis au recueil massif de données, au premier rang desquels ceux qui touchent au vivant: environnement, médecine, génétique, neurosciences… La pensée unique en futurologie s’alimente encore d’une foi dans la science. Elle lui accorde encore les capacités de régler les problèmes créés par elle-même grâce à une progression supposée exponentielle de sa performance globale, ce qui amène des futurologues de renom à pronostiquer l’avènement prochain de l’homme augmenté ou de cette fameuse “ singularité technologique ” qui verrait les intelligences de synthèse produites par la science dominer l’humain. Et si la “ vraie rupture ” du futur… c’était l’inverse?


 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *