manipulation de l’opinion: rupture technologique… ou pas?

manipulation de l’opinion: rupture technologique… ou pas?

Classé dans : à partir des idées & idéologies | 1

Le recueil massif de données personnelles « non-structurées » peut être vu comme une rupture technologique potentielle, mais qui a probablement vocation à s’autodétruire… et peut-être même de deux manières.

Les données et l’opinion

 

« Données non structurées »: c’est sous ce terme qu’apparait ce que les robots sont susceptibles d’extraire des messages que nous émettons et recevons, en permanence et sous tous les formats possibles (mail, texte, tweet, SMS, conversation téléphonique… etc).

Ces données renseignent, par nature, sur ce qui relève de nos pensées. Statistiquement, elles s’agrègent très facilement en « pensée collective ».

La modélisation est le passage obligé d’un processus de ce type. Modéliser, c’est faire apparaitre les règles, les lois par rapport auxquelles seront évaluées les singularités et les distorsions.

Cette modélisation ne prend un sens que dans la mesure où elle peut être mise au service d’une «action», que celle-ci soit corrective, préventive, opportuniste ou stratégique.

Une action sur l’opinion peut s’effectuer à trois moments:

• Au moment de la présentation du sujet. La première impression renvoie au principe de séduction. Dans le domaine des idées, la séduction est représentée par «l’évidence»

• Le second moment, celui de la confrontation à des informations et arguments supplémentaires renvoie au concept de persuasion… dont l’objectif ultime est également de modifier le sentiment d’évidence

• Le troisième moment, celui de la confrontation à une opinion majoritaire renvoie à l’idée d’opinion publique:

• Dans quelle mesure est-elle une agrégation d’opinions individuelles?

• Dans quelle mesure influence-t-elle  les opinions individuelles (appels au conformisme ou à l’anti-conformisme)

• Dans quelle mesure est-elle, elle-même, transformée par des individus ou groupes particuliers (notion de leader d’opinion)

La machine à fabriquer des évidences

 

Pour accéder à un statut « d’évidence », un principe doit être expliqué et cette explication doit être admise (validation: technique «ET» sociale). Suivre en temps réel des millions, voir des milliards de pensées c’est évidemment voir apparaitre des millions de corrélations plus ou moins approximatives, plus ou moins stables dans le temps et dans l’espace, entre les éléments les plus divers.

La « corrélation » constitue d’ailleurs le seul mode de traitement possible de ces données. 

La corrélation est «l’âme» du big data. Là réside son pouvoir… et ses faiblesses.

Son pouvoir:

• la corrélation se vend très facilement

• Elle adopte la forme de l’argumentation scientifique (données, courbes, graphes, spectre…)

• Elle s’appuie sur des causalités implicites

• Son expression est immédiate

• Sa réception également et auprès de tous les publics… puisqu’il n’y a rien à comprendre

• Elle constitue dans tous les cas un phénomène troublant, même si l’on veut s’en défendre

• Elle parle ainsi au « sensible » quand la compréhension devrait parler à la raison… ce qui est plus long

Toute corrélation établie par un traitement massif de données bénéficie donc très rapidement de la double validation requise pour devenir une évidence… et ce, en dehors de toute compréhension réelle des phénomènes…  et cela est vrai pour tous les domaines d’analyse.

Tous les champs d’opinion vont être progressivement l’objet de traitement de type « big data » et donc s’appuyer sur des corrélations… donc sur des «supposées évidences».

Sa grande faiblesse est de type logique. Toute corrélation  exprime à la fois «le phénomène» et «son explication supposée» (“le sentiment d’anxiété des français est lié à la proportion d’étrangers“). Ses conclusions étant entièrement contenues dans ses prémisses, elle relève donc d’un «vice logique» appartenant à la catégorie des sophismes. Je laisserai aux spécialistes le soin de savoir si le terme adapté à ce vice logique est celui d’« argument circulaire », de « pétition de principe » ou d’« enthymème ».

La corrélation « tous azimuts » est « l’âme » du big data, mais il faut se souvenir qu’elle est également l’âme… de la superstition.

Le big data, présenté comme l’outil ultime de la science, s’appuie sur les mêmes mécanismes que… son contraire.

Une confusion potentiellement destructrice.

Les leaders d’opinion seront-ils des robots-sociologues?

 

L’observation « en continu » s’intéresse aux variations et aux mouvements. Dans le domaine des opinions, deux types de mouvements intéressants peuvent la justifier:

• Observer les variations de la pensée collective dans le temps

• Observer le cheminement d’une influence particulière à l’intérieur d’une pensée collective

La première voie est la plus classique. Elle correspond dans les grandes lignes aux études d’opinion actuelles. Elle justifie mal le traitement massif des données personnelles, surtout en temps réel.

La seconde, par contre, ne peut pas exister sans lui. C’est là que résident les nouveaux possibles de l’influence des opinions.

Les informations circulent aujourd’hui sous un grand nombre de formats et sur une multitude de supports (télé, radio, journaux, internet, réseaux sociaux, communications inter-personnelles…).

  • Cette circulation « anarchique » ne produit-elle pas des « contacts » plus efficients que d’autres ?
  • Existe-t-il des principes permettant d’agir sur l’amplification… ou l’atténuation d’une influence?
  • Comment agit un leader d’opinion et comment le détecter (le fabriquer?)?
  • Comment se propage une rumeur? Peut-on en fabriquer? À quelle vitesse se diffusent-elles et selon quels canaux?
  • Les rumeurs peuvent-elles (doivent-elles?) servir de préparation, de support, à l’arrivée d’une information « sensible »?
  • Quels mécanismes génèrent les “vrais débats“ et les “faux débats“?
  • Comment se définissent les seuils où une agrégation d’opinions individuelles bascule en « opinion publique »
  • etc…

Et que dire de l’influence la plus déterminante en matière d’opinion, celle qui, en dehors des contenus proprement dits, pèse sur ce qui sera perçu comme important ou accessoire, ce qui sera mémorisé ou rapidement oublié.

En guise de conclusion

 

La connaissance des ressorts de la diffusion virale va beaucoup progresser, dans tous les domaines, donc dans celui des idées, y compris dans sa dimension la plus évoluée: la percolation, qui associe le viral et la dynamique des seuils

Le big data est en mesure de fabriquer des évidences et de renseigner précisément sur le mouvement des flux qui construisent l’opinion publique. Il devrait donc, en théorie, produire une révolution dans ce domaine et donner à qui le maitrise un immense pouvoir sur les pensées.

Mais pour cela il faudrait que le sens de l’influence soit univoque, qu’il n’y ait qu’un seul pilote dans l’avion. Si cet outil est mis au service d’intérêts nombreux et divergents, l’opinion publique deviendra alors un terrain d’affrontement, un champ de forces:

• Les « évidences » y deviendront nombreuses et contradictoires

• Les manipulations permanentes des pensées rendront progressivement caduque leur modélisation

• … donc le recueil des données personnelles

• … donc l’ensemble de la démarche

C’est en cela que le big data peut être vu comme une rupture technologique potentielle qui a vocation à s’autodétruire, car ce scénario apparait comme le plus probable.

One Response

  1. Les corrélations statistiques calculées par les logiciels de traitement des données massives sont objectives et portent une information.
    Ce qui est sujet à caution ce sont les « interprétations » produites par les « data-scientists » à partir de leurs analyses subjectives des corrélations. C’est ainsi qu’un même phénomène de corrélation est susceptible de produire plusieurs conjectures contradictoires.
    « Toute corrélation établie par un traitement massif de données bénéficie donc très rapidement de la double validation requise pour devenir une évidence »: je dirais plutôt: « Toute interprétation basée sur une corrélation…. ». Le big data s’auto-détruira s’il est présenté par le data-scientist comme la preuve pseudo-scientifique de n’importe quelle analyse fumeuse.

Laissez un commentaire