le futur du big data: le préalable idéologique

Classé dans : à partir des idées & idéologies | 0

 

 big data & totalitarisme

 

le totalitarisme, compagnon de route du futurologue

 

Alimentées par l’obsédante référence au Big Brother d’Orwell, les connotations totalitaires attachées au Big Data se doivent d’être envisagées avec une certaine prudence (voir «pourquoi les futurologues ont-ils besoin du totalitarisme»). Cette circonspection se justifie d’autant mieux qu’elle mène rapidement à la conviction inverse.

Le totalitarisme est un produit de l’hyper-simplification. Son ennemi mortel est la prise en compte de la complexité, car celle-ci génère le doute et exclut le fanatisme.

Le totalitarisme, ou sa version plus usuelle et théoriquement provisoire de “situation de crise“, se nourrit du principe de précaution. Le “premier signe“ fait preuve. La simple lettre anonyme désigne “l’ennemi du régime“ ou «l’hérétique“. Il n’a que faire du Big Data, sinon d’accumuler des “premiers signes“ qui généraliseront la qualité de suspect à l’ensemble de la population… résultat facilement accessible par le libre exercice d’une paranoïa ordinaire.

Le Big Data se présente comme l’outil ultime d’une prise en compte de la complexité. De ce point de vue, il est fondamentalement anti-totalitaire… du moins en théorie.

D’ailleurs, lorsqu’il s’applique aux questions environnementales, pensons-nous qu’il en résultera des réponses simplistes, du genre de celle que nous redoutons tellement dans le traitement des données personnelles ?

 

la question de l’asymétrie

 

A l’inverse de la démocratie où le pouvoir doit composer avec la libre expression des citoyens et des médias et où les recours existent par le droit et la justice, le totalitarisme est lié à une asymétrie extrême des relations qu’entretiennent le pouvoir et l’individu.

Le Big Data appuyé sur la puissance invisible de la machine, correspond à ce profil. On ignore ce qu’il sait. On suppose qu’il sait tout. Des décisions rédhibitoires nous concernant peuvent en sortir, sans recours possibles, sans espace d’échange ou d’argumentation.

C’est en tout cas cette lecture qui s’impose à nous actuellement.

Mais, là encore, ne faut-il pas relativiser? L’asymétrie est consubstantielle à la notion de pouvoir … par définition.
Par ailleurs, rien n’indique que “TOUT“ ce qui fait la démocratie soit appelé à disparaitre avec l’avènement du Big Data.

 

le big data: un aspirateur géant

 

Du point de vue de ses méthodes, le big data relève d’une vision globale, mais l’idéologie va consister à extrapoler celle-ci aux possibles et aux moyens.

Admettre cette vision globalisante suppose que le Big Data ne saurait être en aucune façon le siège de forces centrifuges, de conflits déstabilisateurs ou d’évolutions différentielles ou asynchrones de ses composants.

Par ailleurs, chaque progrès potentiel de chaque domaine scientifique ou technologique est perçu comme alimentant un progrès continu de l’ensemble “Big Data“, indépendamment même de leurs compatibilités ou de leurs redondances. Ce qui ne va pas sans provoquer un certain vertige.

Or, va-t-il beaucoup progresser ?
Cela n’est certain que sur les 3V (volume, vitesse, variétés) impliquant les progrès matériels, voire à terme  l’informatique quantique  (voir billet)

Mais la question de ses progrès comme outil de connaissance reste posée.

 

une idéologie de la connaissance

 

connaissance et information

 

Le problème global, «savoir ce que l’on sait» est résumé par FB Huygue:

La collecte d’information peut avoir diverses finalités…/… encore faut-il qu’elle soit exploitable. Encore faut-il que la mauvaise information ne chasse pas la bonne, que le banal n’étouffe pas le significatif. Encore faut-il, tout bêtement, que le surveillant sache quoi faire de ce qu’il sait. L’éternel problème : “l’information n’est pas la connaissance“, se pose ici sous un aspect quantitatif, le plus brut, celui des giga-octets.

L’idéologie consiste ici à poser comme acquis que la machine saura assurer cette alchimie.

 

application à l’individu

 

La seconde facette de cette idéologie consiste à voir dans l’individu une entité stable et “connaissable“ sur laquelle une accumulation de données serait de nature à produire un savoir de plus en plus approfondi, de plus en plus parfait, et ce, jusqu’à la prévision de ses comportements.
Cette connaissance rejoint l’approche de Jared Cohen et Eric Schmidt déjà discutée dans un précédent billet.

On peut en illustrer le principe général à partir de la présentation que fait Numerama de l’outil RIOT proposé par la firme Raytheon

Il fouille dans les réseaux sociaux pour établir le profil d’une cible, et de ses habitudes …/… À partir d’une simple recherche de son nom, le logiciel liste toutes les données compilées notamment sur Facebook, Twitter, et Foursquare …/… récupère dans un fichier KML standard l’ensemble des données GPS des endroits dans lesquels il s’est enregistré et les personnes avec qui il était au moment d’une prise de photo. Le système propose ensuite de « prédire où va se rendre la cible » …/… et affiche les 10 endroits où elle se rend le plus souvent. Enfin, le logiciel peut créer un arbre relationnel entre la cible et ses différents contacts.

N’est-il pas tout aussi crédible d’affirmer qu’un individu est par nature instable, sensible aux humeurs et à l’air du temps et qu’une accumulation de données le concernant ne peut mener, sur la durée, qu’à une dilution progressive de toute connaissance à son sujet?

 

une terre d’accueil pour tous les abus

 

Le caractère de globalité que l’on attribut au Big Data lui amène également l’agrégation des critiques concernant les abus d’ailleurs et de toujours.

Les entreprises publiques comme privées diligentent de très longue date des enquêtes de mœurs approfondies sur leurs cadres. Les entretiens d’embauche deviennent de plus en plus intrusifs. Ces pratiques très abusives existent et se développent indépendamment du Big Data.

Celui-ci n’a pas inventé le préjugé policier. Les corrélations prédictives sont-elles, de ce point de vue, autre chose qu’une mise à niveau technologique du “délit de sale gueule“, lui aussi perçu comme prédictif par ses utilisateurs… lui aussi en temps réel… et avec une remarquable économie de moyens ?

 

l’exemple du fnaeg

 

«Le Fichier National Automatisé des Empreintes Génétiques était initialement destiné à recueillir les empreintes génétiques des personnes impliquées dans les infractions à caractère sexuel. Des lois successives ont étendu son champ d’application.
On peut lire dans Libération du 28/01/2012 ( par Laure Heinich-Luijer et Karine Bourdié, avocates à la Cour)

Crée en 1998 pour identifier les auteurs de crimes et délits sexuels, il n’avait reçu que peu d’opposition… /… Le fichier était d’abord réservé aux personnes condamnées …/… Puis le fichier s’est étendu aux personnes simplement soupçonnées d’avoir commis une infraction …/…   Aujourd’hui, 137 infractions, soit quasiment la totalité des crimes et délits, y compris les plus petits, entraînent une inscription au FNAEG. À l’exception des délits financiers, évidemment, parce que tout fait exception dans la délinquance en col blanc…/… En tout, près de 2 millions d’entre nous sont fichés au FNAEG …/… Que font-ils des données ? Elles seront conservées 40 ans pour les personnes condamnées et 25 ans pour les mises en causes…

 

Cette dérive ne dépend pas du Big Data

l’exemple du dsm

 

Qu’est-ce que le DSM ?
Le Manuel diagnostique et statistique des troubles mentaux …/… publié par la Société américaine de psychiatrie (APA), est un ouvrage de référence qui classifie et catégorise des critères diagnostiques et des recherches statistiques de troubles mentaux spécifiques.

Son objectif (louable) est de créer un langage commun chez tous les cliniciens pour permettre une harmonisation des diagnostics, des échanges et statistiques, à l’échelle mondiale. Ce manuel vient de sortir dans sa version 5 (le 18 mai 2013)

Le Docteur Landman cité par La Croix du 16 mai 2013

Dans sa première version, le DSM répertoriait 60 troubles mentaux, la version 5 en recense plus de 350

Ainsi toute personne ayant un accès de gourmandise par semaine pourra se voir diagnostiquer une hyperphagie

une personne qui a perdu un être cher pourra être considérée comme faisant un épisode dépressif majeur si elle continue à être triste au bout de deux semaines.

Le professeur Maurice Corcos résume la dérive en ces termes:

En voulant délimiter le normal et le pathologique, on ne cesse d’élargir les catégories de la maladie mentale

Cette dérive ne dépend pas, non plus, du Big Data… même si l’on tremble à l’idée de ce qu’il pourrait en faire dans la prévention des actes de déséquilibrés.

 

en guise de conclusion

 

Loin de moi l’idée de me faire l’apôtre de ce dangereux outil. Je pense seulement que ce préalable était nécessaire pour essayer d’appréhender, de la manière la plus juste possible, un phénomène qui, d’une façon ou d’une autre, va influencer fortement notre futur. Ce sera l’objet de mon prochain billet.

 

 

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *