penser les limites de la détection et le futur du secret

Classé dans : à partir des frontières | 0

La “détection” et le “secret” renvoient à deux problématiques de l’information qui ne sont pas a priori, directement liées. On peut détecter le symptôme d’une maladie, une fuite dans une tuyauterie ou la présence d’eau sur Mars. Inversement, un secret peut être révélé autrement que par une détection. Pourtant l’articulation des deux concepts, qu’elle opère au niveau des individus ou des institutions, constitue une des grandes peurs du futur, la croissance apparemment sans limites des capacités du premier mettant en cause la possibilité même d’une survie du second. Tout peut-il devenir transparent? Nous allons essayer d’approcher la question sous trois éclairages différents.

“tout savoir” ou “quoi savoir”


Ce qui est totalement inconnu ou inconnaissable, n’est pas un secret: c’est un mystère. Un secret est connu (à la limite d’une seule personne, généralement davantage), mais fait l’objet d’une diffusion restreinte et contrôlée. Du point de vue du secret, la détection est une “intrusion” susceptible d’opérer selon deux modes:

 

  • la détection de cible
  • la détection d’anomalie

 

La détection d’une cible

La détection d’une cible est une identification indirecte: elle ne s’applique pas à “la chose”, mais à un “signe de la chose”. Sa formulation est simpliste: c’est une réponse en “oui” ou “non”. Il s’agit de détecter la présence ou l’absence d’un indicateur.

 

  • Elle suppose de savoir ce qu’on cherche
  • Le mieux-faire dans ce domaine est de type technologique
  • Il consiste à exploiter toutes les technologies disponibles (ondes, vibrations, nanotechnologies, biotechnologies …etc) pour inventer l’indicateur le plus spécifique, fiable, stable, suffisant, facile à mettre en oeuvre, économique…etc.

 

La détection d’une anomalie

La détection des anomalies est une détection “environnementale” qui correspond à un processus lourd et incertain puisqu’il suppose le préalable de la description approfondie d’une “normalité” de référence. La quantité de données prise en compte est d’autant plus importante qu’à l’inverse du premier cas… on ne sait pas ce qu’on cherche. Ce qui implique:

 

  • que l’imposante masse de données n’est accessible qu’aux traitements automatisés.
  • que le mieux-faire dans ce domaine est de type algorithmique
  • que les algorithmes ne peuvent s’appuyer que sur les corrélations et les probabilités, soit des principes beaucoup plus incertains que les indicateurs spécifiques de cibles identifiées
  • la détection de l’anomalie s’effectue dans la durée. Elle suppose maintenance, suivi et mise à jour, l’anomalie devant sans cesse être repositionnée en fonction des fluctuations d’une normalité par définition approximative et évolutive

 

Bien qu’à priori plus lourd, plus incertain et plus couteux, ce second type de détection tend pourtant à s’imposer dans l’univers de la surveillance pour des raisons principalement idéologiques:
  • La dictature actuelle de l’idéologie des données… et les intérêts de puissantes multinationales qui stimulent cette idéologie.
  • En se donnant pour objectif de “tout” savoir”, on se persuade qu’on disposera des moyens de répondre à tous les besoins de détection d’aujourd’hui comme de ceux pas encore identifiés du futur (ce qui est une illusion puisque la normalité du futur ne sera plus celle d’aujourd’hui, elle s’exprimera autrement. Les anomalies d’hier ne correspondront plus à rien demain.
  • Une autre limite réside dans la mythologie de l’algorithme et de son intelligence supposée. En théorie, voire en laboratoire, on peut lui faire faire beaucoup de choses, mais imaginons ce que pourrait produire une analyse “très intelligente”, déductive et “très poussée” de nos données personnelles classiques, celles qui dorment depuis toujours dans dans les bases de données tout à fait traditionnelles de notre consommation électrique ou notre compte en banque. On nous persuade aujourd’hui que l’intelligence est là, mais que les données manquent, alors que les plus utiles de celles-ci pourraient presque toujours être déduites d’un nombre limité de données tout à fait disponibles… si l’intelligence était vraiment là.
  • Les lecteurs de romans policiers le savent, l’intelligence du traitement est beaucoup plus sollicitée quand le nombre de données disponibles est faible.
  • L’accumulation de données s’opère et s’opérera toujours au détriment de l’intelligence de leur traitement.
  • Sur le marché professionnel des données, l’accumulation (une liste) se vend beaucoup plus facilement que l’intelligence… qui, elle, demande à être exposée, comprise et non déformée, dans des enchainements de communications. À la manière du rêve, l’intelligence ne se vend bien que de façon allusive, quand un simple exemple bien formulé offre à l’imaginaire une constellation de possibles.

 

En se donnant l’illusion de pouvoir tout savoir et de pouvoir accéder à tous les types de secrets, en s’appuyant sur les robots, en devenant une chasse gardée de puissantes sociétés, ce mode de détection tend à déprécier l’approche ciblée. Il est cependant permis de penser qu’elle sera une impasse à la fois technique, économique et fonctionnelle. Elle-même cache un grand secret (fort bien gardé): le coût (investissement et maintenance) forcément exorbitant de l’information réellement utile obtenue. “Tout savoir” est un océan dans lequel même la puissante NSA est en train de se noyer.
D’où une inévitable évolution… d’ailleurs déjà en cours.

détection et secret: une problématique de la contrepartie

 

l’inexorable glissement vers la détection artificielle

La recherche d’un indicateur fiable et polyvalent amène à la “cible” artificielle, c’est-à-dire au marquage et au suivi. La recherche de l’anomalie amène à “l’environnement” artificiel ou une multitudde capteurs renseignent sur une multitude de sujets (ils ont déjà un nom: les “objets connectés”). Les deux principes sont, en outre, parfaitement compatibles. Dans un cas comme dans l’autre la détection redevient simple, fiable et économique. Les avions, les camions ont eu leurs boites noires. Les voitures sont en train de se voir dotées des leurs, celle des individus parait prévisible à plus ou moins long terme. Le seul problème de cette évolution c’est qu’à l’inverse de la détection “naturelle” initiale qui pouvait se développer dans une relative clandestinité, la mise en place de ces principes est connue – au moins en partie – et se doit donc d’être acceptée. Elle n’est susceptible d’être imposée que quand elle s’appuie sur les arguments d’une solide légitimité. Ce n’est pas toujours le cas.

l’inexorable retour à la servitude volontaire et à l’ingénierie du consentement

La détection artificielle n’est alors “presque plus une détection” puisqu’elle rejoint la divulgation acceptée des secrets: l’une et l’autre fonctionnent sur un principe unique de “contrepartie”. La NSA essaie de nous voler nos données, mais implore Google de lui livrer celles qu’il détient… plus complètes parce qu’on les lui a librement confiées … et ce, en échange d’un service. En entrant dans nos voitures, nous pénétrerons dans un espace dont nous saurons qu’il détecte une grande quantité de nos données, nous l’accepterons en échange d’une prime d’assurance moins élevée, d’une protection contre le vol ou parce que cela sera rendu obligatoire … pour des “raisons de sécurité” (la fameuse légitimité de la sécurité: que ne lui doit-on pas?). Une fois “habitués” au principe, nous serons sans doute ouverts à le côtoyer dans l’entreprise… puis chez soi… où l’on cherche actuellement quelle contrepartie pourrait bien nous offrir un réfrigérateur connecté en échange des données personnelles qu’on acceptera de lui livrer (pour l’instant elle consisterait à nous dire s’il reste du lait frais… c’est sans doute insuffisant).

La question des limites

  • Chaque contrepartie engage une persuasion (il faut convaincre) et une incomplétude (on ne convaincra jamais tout le monde). En outre, la contrepartie permet surtout d’obtenir facilement les données des pauvres, celles qui commercialement parlant, n’intéressent personne.
  • Un environnement artificiel réclame une maintenance de tous les instants et présente une multitude de points faibles
  • Le capitalisme c’est “toujours plus”. Il tendra à repousser toujours plus loin la limite du consentement. Un refus croissant, même relativement passif, finira par enlever l’essentiel de leur utilité à des bases de données devenues trop lacunaires.
  • Un seul acteur ne peut offrir de contrepartie pour l’ensemble des données et chaque recueil de l’un est… un secret pour l’autre (voir le conflit entre Apple et le FBI). Le secret est toujours là. Il a seulement changé de propriétaire. À son tour il peut être cédé… moyennant contrepartie…Mais chacun des acteurs de ce marché peut voir ses contreparties acceptées ou pas. Se trouvent ainsi redéfinis en permanence d’autres périmètres du secret.

le secret: une problématique de la frontière


À l’instar du monde physique, celui de l’information est entrelardé de frontières (linguistiques, ésotérismes de spécialités et multitudes de secrets… industriels, professionnels, privés…). Le secret apparait aujourd’hui de plus en plus difficile à protéger, mais il faut remarquer que cela tend à être vrai pour “toutes les frontières” dans “tous les domaines”.

Il n’y a jamais eu autant de pays… donc autant de frontières. Elles ne sont jamais apparues aussi peu légitimes et aussi peu respectées. On a sans doute jamais construit autant de murs pour essayer de les consolider (les deux Corée, Israel/ Palestine, USA/Mexique, Inde/Bangladesh… ou sur la route des migrants fuyant les guerres…etc) avec parfois les effets les plus inattendus (voir «de Kaesong au Delaware: le futur des frontières»).
L’incertitude concernant les frontières dépasse largement le cadre de la délimitation politique (etats, Europe, métropoles, régions). On la retrouve:
  • entre les domaines de connaissances
  • entre le réel et le virtuel (voir toucher les hologrammes)
  • entre le permis et l’interdit
  • entre le faux et le vrai
  • entre le malade et le bien-portant
  • entre le “bio” et le “pas bio” … la droite et la gauche
  • … etc

 

Le règne des probabilités, qui s’installe dans les sciences, va jusqu’à brouiller la frontière entre ce qui “est” et ce qui “n’est pas”.
Les frontières des secrets seraient donc supposées résister là où plient toutes les autres?
Ce phénomène aux dimensions universelles démontre que toute frontière est arbitraire et qu’elle se maintient aussi longtemps que ne s’exercent pas sur elle des forces objectives d’une certaine intensité. Or, pour diverses raisons, les forces présentant ces caractéristiques tendant à s’accumuler:
  • l’énergie désespérée des migrants fuyants la guerre ou l’extrême pauvreté
  • le totalitarisme capitaliste et ses multiples déclinaisons: puissance d’un capital financier indifférent aux limites politiques, recherche frénétique de l’innovation, culture fanatique du résultat immédiat…
  • le dynamisme des chercheurs et le développement des moyens de recherche qui font éclater les concepts existants
  • la faiblesse croissante du politique
  • et … une volonté d’accès des multinationales aux secrets des individus… associée à des moyens supposés pouvoir le permettre.

 

La limite du processus? L’évolution vers d’autres frontières, mieux acceptées, appuyées sur de nouvelles légitimités, de nouveaux pouvoirs et sur une nouvelle définition du dedans, du dehors et de l’intrusion.
En fait, ce processus permanent de redéfinition de tous les types de frontières a vocation à devenir l’objet même de la futurologie.

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *