comment choisirons-nous demain?
Les modalités de nos choix resteront sans doute complexes, mais des tendances peuvent être mises à jour autour de principes existants que nous représenterons par deux exemples. Nous nous limiterons pour l’instant à ce qui relève d’une démarche intellectuelle réelle sans nous attarder sur ce qui découle directement d’un comportement (conformisme, snobisme, suivisme…). Nous limiterons également l’ambition de ces quelques lignes à la recherche d’une introduction pertinente à la “vaste“ question posée.
le rationnel: choisir un smartphone
Comment choisir entre l’iPhone 5 et le Galaxy S4 ? Les comparatifs fleurissent sur internet ( un exemple parmi beaucoup d’autres ) On retrouverait des démarches du même ordre dans le monde de l’entreprise. Le Code des marchés Publics recommande explicitement ce principe pour la sélection des offres. L’approche à caractère rationnel continue donc à revendiquer une place centrale dans le processus du choix. Va-t-elle la conserver, voire la renforcer? … Non ? … Et si notre futur devenait de plus en plus “technologique“ ? … Et si l’idéologie technocratique de l’entreprise colonisait massivement les esprits ?
la croyance: choisir de “manger bio“
Qu’il puisse exister des îlots sains et protégés sur une planète globalement empoisonnée paraît possible, mais douteux. Cette affirmation s’appuie en effet:
• sur la conviction que rien de nocif ne circule par les sols, par les airs, par les pluies, par les nappes, par les insectes ou par d’autres êtres vivants
• sur la conviction que l’absence de traitement n’offre pas d’opportunités à divers types de parasites potentiellement dangereux
• sur l’idée que la recherche de l’indispensable rentabilité ne présente pas, ici, les effets pervers tellement fréquents ailleurs • …
• sur l’idée qu’une absorption limitée de poison ne nous est pas nécessaire pour résister à tous ceux avec lesquels nous sommes en contact quotidiennement • …
Et en plus… c’est plus cher. Pour le rationnel, la question du “manger bio“ se présenterait comme une énigme difficile. À l’inverse, la croyance y brille de mille feux. À l’intersection de la pensée du corps et de celle de l’environnement et bénéficiant de ce fait d’une double légitimité, le “manger bio“ apparaît limpide et solide, même en l’absence de toute preuve de son bien-fondé.
(nota: je n’ai évidemment rien contre l’agriculture biologique. Là n’est pas la question, le lecteur l’aura compris)
Quel avenir pour la relation de cause à effet?
l’allongement des chaines de causalités
Comprendre un phénomène correspond principalement à le rattacher à des causes. En évaluer l’importance correspond principalement à le rattacher à des effets. La relation de causalité fait partie des fondements de la pensée rationnelle. «Je donne un coup de marteau sur une pièce métallique… j’entends du bruit». Tout va bien sur les séquences courtes, mais… Voir en temps quasi réel un basketteur américain marquer un panier sur le téléviseur de son salon met en jeu une interminable chaine de causalités qui touche aux techniques de prise de vues, à l’élaboration de formats d’images, aux technologies numériques, aux transferts par ondes, aux technologies spatiales, aux technologies de diffusions, de réception, et à tout ce qui contribue à produire un écran de bonne qualité. Qu’un seul élément fasse défaut et l’effet final est anéanti. Chacun a donc bien valeur de cause. Cette très longue chaine de causes et d’effets traverse des univers n’ayant quasiment rien en commun. Ceci a, pour notre propos, deux conséquences déterminantes: 1/ Plus personne n’est en mesure de réellement comprendre l’ensemble du processus sous tous ses aspects 2/ Est mis en échec un principe très important de l’apprentissage et de la compréhension: la pensée analogique. Nous allons y revenir.
la surabondance de données
La surabondance de critères, de paramètres, de données apparaît très pénalisante pour la démarche rationnelle. Lorsque le nombre d’éléments pris en compte augmente, le nombre des relations possibles entre ces éléments augmente encore bien plus rapidement… La sélection hiérarchisée de ces relations et la détection parmi cet ensemble des relations de causalités découragent alors par leur complexité. De la surabondance de données a surgi le concept de corrélation, posé comme réponse technique à l’insuffisance des capacités de traitement par l’humain de flux d’information devenus gigantesques. Cependant les corrélations n’ont pas valeur de causes. (voir «le futur du big data: le préalable idéologique» et « l’improbable contre-utopie du big data») Mais les causes… où sont-elles?
l’impact sur la pensée de la notion d’effets secondaires
Les effets secondaires peuvent prétendre à une haute légitimité dans l’approche d’une évaluation globale. Pourtant, ils collaborent plus que toute autre force à la destruction de la démarche rationnelle en la privant d’une conclusion. Ce médicament m’a guéri, il semble bon… Oui, mais… qu’en est-il de ses effets secondaires? Mon téléphone portable me rend d’immenses services, il m’apparait comme une invention bonne et utile … Oui, mais…? Mes capteurs solaires alimentent des batteries, je pense travailler pour l’environnement… Oui, mais…? L’évaluation rationnelle a besoin de se conclure, mais elle est privée de cet aboutissement par la question des effets secondaires qui, sans même la contredire, sans même la sortir de sa problématique, la font glisser en dehors de ses capacités de traitement. Cette notion est apparue il y a longtemps et a même fondé de multiples pensées organisées de Machiavel à la psychanalyse, de la science économique à la publicité. Qu’a-t-elle aujourd’hui de différent ? Peut-être précisément d’avoir glissé en dehors de ces pensées organisées pour devenir un instrument contingent, ponctuel, fragmentaire, un grain de sable susceptible de perturber les gros engrenages du raisonnement. Aux causes qui deviennent trop lointaines pour être détectées se joignent alors des effets aux contours de plus en plus incertains.
Comment allons-nous penser l’invisible?
Passer du millimètre au millionième de millimètre ne s’assimile plus à une démarche de miniaturisation qui reste liée à la matérialité (voir le billet « la miniaturisation: l’essoufflement d’un argument de progrès »). La miniature est petite, mais elle se voit. L’invisible appartient à un autre univers. Celui des technologies impénétrables et, séculairement, celui des grandes peurs, des prodiges, de la magie, de la superstition, de la religion. L’infiniment petit est associé aux développements technologiques probables de demain: nanosciences et génie génétique, domaines tout aussi inquiétants que le fut l’atome à son époque et qui ont, en outre, une forte capacité à nous faire perdre nos repères. Ces nano-objets qui interagissent avec l’ADN, qui lui-même nous renvoie à la génétique et donc au vivant, c’est-à-dire à “nous“…ce n’est plus ni de la physique, ni de la chimie, au sens où nous l’avons appris, ni même apparemment un domaine scientifique clairement circonscrit… et en plus, çà ne se voit pas. L’infiniment grand n’est évidemment pas plus tangible que l’infiniment petit. Le cosmos et les extra-terrestres sont passés de mode, mais l’approche planétaire des problèmes d’environnement ne réfère plus au visible: la couche d’ozone et El Nino ne se voient pas non plus. Le recueil des données personnelles s’effectue par des voies qui nous échappent (voir le billet “l’avenir de l’image est-il dans l’invisible?»). Algorithmes et statistiques organisent l’exploration d’un social devenu abstrait. Les communications de tous types s’opèrent de façon quasi magique par des ondes. On nous apprend que nos destinées économiques sont totalement conditionnées par des échanges… non seulement purement financiers… mais susceptibles pour partie de s’effectuer au millième de seconde. Dès aujourd’hui et surtout demain, tous les déterminants de notre quotidien sont appelés à glisser vers des mondes invisibles. Comment penserons-nous ce quotidien-là ?
quel futur pour la pensée analogique?
La définition stricte de l’analogie est A est à B ce que C est à D. Par conséquent, en affirmant une telle analogie, j’affirme que tout ce qui est vrai dans le rapport entre A et B, l’est aussi dans le rapport entre C et D; et aussi que tout ce qui est faux dans le rapport entre A et B, l’est aussi dans le rapport entre C et D.» (w)
La fonction principale de l’analogie consiste à permettre d’aborder l’inconnu à partir des acquis du connu. (voir «Pourquoi des métaphores pour penser le futur ?»), en transposant dans le second domaine une représentation des mécanismes principaux du premier. Sa mission consiste à éclairer l’obscur, à rendre intelligible l’abscons. L’analogie est donc:
• une représentation
• une représentation refermée sur un objet d’analyse particulier
• à vocation didactique • à portée limitée
Elle opère comme une représentation graphique… sans graphique… comme un schéma uniquement lisible par la pensée. Dès lors, comment transmettre par analogie une chaîne de causalités longue, complexe et traversant des univers techniques différents, sinon en accumulant toute une palette d’illustrations sans rapport les unes avec les autres, étant donné qu’une analogie plus large, même si on parvenait à la construire, deviendrait elle-même complexe et ce faisant ne remplirait plus sa fonction, puisqu’il est absurde de vouloir s’appuyer sur de l’incompréhensible pour expliquer de l’inconnu. Les chaînes causales longues et complexes ne se prêtent donc plus à la représentation analogique… ce qui tend à les rendre inconnaissables pour le plus grand nombre. Or, comme nous l’avons vu ci-dessus, toutes les chaînes causales tendent à s’allonger et à se complexifier. Deux scénarios s’offrent alors pour le futur de la pensée analogique • Impuissance et donc disparition progressive en tant que principe d’accès à la complexité, une complexité assumée, élitiste et peu démocratique • Récupération de cet outil extrêmement efficace de persuasion pour forcer l’adhésion à des visions hyper-simplificatrices du monde… politiquement et socialement parlant, les plus inquiétantes de toutes.
quel futur pour l’effet Dunning-Kruger?
L’effet Dunning-Kruger décrit un phénomène selon lequel les moins compétents dans un domaine surestiment leur compétence alors que les plus compétents auraient tendance à la sous-estimer. (source Wikipedia) Ce phénomène a été démontré au travers d’une série d’expériences dirigées par David Dunning et Justin Kruger. Leurs résultats furent publiés en décembre 1991 dans la revue Journal of Personality and Social Psychology. Deux conclusions concernent particulièrement notre propos :
• la personne incompétente tend à surestimer son niveau de compétence,
• la personne incompétente ne parvient pas à reconnaître la compétence dans ceux qui la possèdent véritablement
Dunning et Kruger ont noté que plusieurs études antérieures tendaient à suggérer que dans des compétences aussi diverses que la compréhension de texte, la conduite d’un véhicule, les échecs ou le tennis, «l’ignorance engendre plus fréquemment la confiance en soi que ne le fait la connaissance» (pour reprendre l’expression de Charles Darwin) Que peut donc produire le jeu d’une incompétence globale généralisée et d’une compétence rare et fragmentaire ? Qui seront les leaders d’opinion ? Comment se prendront les décisions collectives ?
Laisser un commentaire