futur des données personnelles: systématisme ou intelligence?

Classé dans : à partir des technologies | 0

Systématisme ou intelligence? Nous sommes aujourd’hui portés à penser que nos données personnelles sont – et seront – l’objet de traitements empruntant à ces deux voies, que l’on imagine facilement complémentaires. Pourtant ce sont bien deux tendances radicalement divergentes qui ont le vent en poupe actuellement dans la gestion de données: l’intelligence artificielle et la blockchain, procédure éminemment… non intelligente. Dans un cas comme dans l’autre, une question demeure centrale: celle des limites, celle de l’évidence apparente des tendances de type”de plus en plus”, désormais perçue comme indissociable du recueil et du traitement de nos données.

l’enseignement de l’essor de la blockchain


Popularisée par les cryptomonnaies bitcoin et etherum, la blockchain  – en attendant l’essor de ses jeunes concurrents “hashgraph” ou “tangle” – est aujourd’hui de tous les propos dans le monde du traitement de données. Il s’agit à la base d’un système de sauvegarde systématique, chronologique et théoriquement infalsifiable, car basé sur un historique non modifiable, à la manière d’un registre ou tout serait noté, ligne après ligne, et où rien ne pourrait être effacé. Sa philosophie est celle d’un outil de “traçage”, parfaitement adapté aux transactions, surtout quand elles sont nombreuses, d’où son utilisation dans la criptomonnaie.
Or, son usage semble se répandre comme un feu de brousse, en dehors de cette philosophie, dans tous les domaines ou la sécurisation des actes est recherchée, même s’il s’agit de transactions très épisodiques. Ce mode opératoire étant le “moins” intelligent qui puisse être imaginé, on est bien obligé de voir dans cet engouement la confirmation d’au moins deux hypothèses:
  • un nombre croissant d’entreprises se préparent à privilégier la sécurité
  • robustesse et sécurité d’un traitement de données sont inversement proportionnelles à son “intelligence”
Cette seconde hypothèse esquisse une première réponse à la question-titre.

la question de “l’intelligence globale”: l’exemple de Watson


La réputation internationale du Watson d’IBM a été établie lorsqu’il a gagné 1 million de dollars au jeu télévisé américain Jeopardy!  ce qui lui demandait, entre autres choses, d’examiner 200 millions de pages en moins de 3 secondes. Certes il avait été spécialement programmé pour ce jeu, mais cependant:

 Watson sait faire beaucoup de choses dans le domaine de l’IA : reconnaissance des mots, des images, compréhension du langage, analyse de données, prédiction… Le programme identifie aussi les émotions, analyse le ton utilisé par ses interlocuteurs, et s’essaie à la conversation. Autant de compétences, abouties à des degrés très divers, qui trouvent de multiples applications dans des domaines variés …/… Et les ambitions d’IBM à son égard sont très élevées. « Ces systèmes intelligents doivent être en mesure de nous comprendre, de comprendre ce que nous voulons dire et de comprendre les problèmes que nous essayons de résoudre »

Voilà pour l’idée. Voilà pour le concept. Voilà pour… l’imaginaire de l’intelligence artificielle globale.
Passons maintenant aux travaux pratiques.

 IBM a des standards très élevés en matière de préparation de données …/… Un point que confirme notre interview avec l’équipe projet du Crédit Mutuel CIC, un des premiers utilisateurs de Watson en France

«Préparation de données (?)»: Watson ne serait donc pas capable, de lui-même, d’extraire du sens dans le tout-venant d’informations que produit la vie courante? On note ainsi dans le retour utilisateur (le Crédit Mutuel CIC),  qui confiait à Watson une mission apparemment simple, celle de trier automatiquement les mails de ses clients:
Trier les mails avec Watson : un travail de fourmis …/… Nous effectuons un travail de classification dans 33 ‘boîtes’, mais dont les frontières sont un peu floues. Quand nous améliorons la détection dans une boîte, nous détériorons le niveau de reconnaissance de celle d’à côté. On est constamment à la recherche d’un équilibre entre le taux de détection et le taux de faux positifs.
On trouve là une nouvelle illustration d’un problème détaillé dans un billet précédent “deep learning: ce qu’une machine ne pourra pas apprendre”… et il ne s’agit que de traitement de… textes… en moyenne probablement plutôt brefs… sur un support unique, celui du mail… et ayant pour objet un propos bien circonscrit: la relation à un service bancaire (?!).

systématisme “ET” “OU” intelligence


Le “data mining” se donne pour objet de trouver du sens dans un ensemble chaotique de données. Cette quête s’organise autour de deux maitres-mots: celui de corrélations et celui de modélisation… autour desquels se construit également l’apprentissage automatique (lien). Or, “tout” peut être corrélé plus ou moins directement avec “tout” (- et réciproquement – comme n’aurait pas manqué de le souligner Pierre Dac), seuls l’objectif du recueil et la faisabilité d’un modèle sont de nature à limiter les opérations.
L’imaginaire lié au recueil de données “personnelles” est tout particulièrement alimenté par le fait que toutes les finalités imaginables peuvent se présenter à l’individu comme entrecroisées au sein d’un ensemble unique et parfaitement identifiable… lui-même… le laissant nu face à la toute-puissance d’un savoir voué à devenir absolu… ce qui techniquement parlant relève du mythe et pour de multiples raisons, en tout premier lieu économiques, pour cause d’une consommation considérable de ressources liée à des rendements très rapidement décroissants.
  • Plus le recueil est massif, plus le niveau de redondance est important. Une part croissante des ressources est consommée pour obtenir des informations déjà connues.
  • Toutes les firmes s’efforcent de recueillir, pour leur propre compte, des données qui pour une bonne part seront toujours les mêmes.
  • Les précautions de sécurité amènent à dupliquer en continu les données recueillies, d’où… redondance de redondances.
  • Quand s’accroit le recueil de données, grandit encore plus rapidement le nombre des corrélations possibles entre elles et, par là, la proportion de celles qui seront peu pertinentes, ce qui brouille la lecture de l’essentiel tout en consommant des ressources en évaluation et vérification.
  • Ces deux types de perte d’efficacité sont amplifiés par le morcellement du recueil. Celui-ci est effectué par des firmes nombreuses, aux intérêts peu compatibles, liées à des métiers plus ou moins étrangers. Chacune des intelligences développées par chacune des firmes va s’appuyer sur des modélisations spécifiquement optimisées pour elles-mêmes du point de vue de leurs objectifs, de leurs méthodes, de leurs formats, de leurs modes de sécurisation…etc… Ces différentes bases vont vite s’avérer très difficilement interconnectables, même en cas d’accords stratégiques entre les firmes.
  • Ce tissu d’incompatibilités va d’ailleurs contrarier tout recueil massif de données hétérogènes, même effectué par une seule firme, dans la mesure ou chaque domaine, chaque problématique fonctionne sur des concepts propres, des hiérarchies et des corrélations particulières, qu’il peut devenir impossible de regrouper en ensembles cohérents à un niveau supérieur.
Ainsi, sommes-nous prêts à admettre qu’en réunissant un cancérologue, un historien, un mathématicien et un juriste nous disposons d’une intelligence globale supérieure à la somme de ses parties? Peuvent-ils collectivement proposer une quelconque application pratique à leurs savoirs réunis? Sont-ils seulement en mesure d’amorcer un simple dialogue?
Ce qu’il y a de mythique dans l’intelligence artificielle c’est de considérer chacune de ses aptitudes particulières comme composant d’un ensemble global et organisé.
De plus, la capacité à effectuer un recueil massif est abusivement assimilée à celle d’effectuer un traitement massif – qui plus est, intelligent – ce qui, on l’a vu ci-dessus avec l’exemple de Watson, est bien loin d’être le cas.
Lorsque l’IA aura perdu sa dimension de gadget à la mode, qu’elle sera inscrite dans des processus professionnels tangibles, bien circonscrits (où elle rendra sans doute d’immenses services), elle sera peut-être capable d’utiliser sa neutralité idéologique pour évaluer de façon “objective” son propre retour sur investissement. Ce calcul préalable pourrait même devenir un de ses domaines d’excellence. L’intelligence artificielle pourrait ainsi accéder à l’aptitude de s’exclure elle-même dans de nombreux cas d’applications (ce qu’un humain fait très mal).
À titre d’illustration, un petit détour par la science-fiction pourrait nous donner un comparatif des perspectives possibles de l’IA et de la blockchain:
  • Dans le premier cas, nous obtenons le Big Brother “traditionnel”, celui qui voit tout, qui sait tout, et qui devine tout ce qu’il ne sait pas. C’est l’intelligence. C’est complexe, instable et fragile.
  • Dans le second cas, nous sommes tous géolocalisés en temps réel. Big Brother ignore ce que l’on dit ou ce que l’on pense, mais il connait tout de nos déplacements et il en déduit très facilement qui a fréquenté plus ou moins souvent un lieu ou une personne donné et qui se trouvait en un lieu donné à un instant donné. C’est le systématisme. C’est totalement dénué d’intelligence, mais simple, robuste et efficace.

en guise de conclusion provisoire


L’intelligence des données n’est plus aujourd’hui ce qu’elle aurait été hier si l’IA avait existé. Elle sera à coup sûr différente demain.
L’investissement considérable en études, recherches, maintenance et sécurisation ainsi que l’énorme consommation de ressources que nécessite un haut niveau de traitement de données, va rendre peu agiles les organisations qui s’appuieront trop globalement sur elle et qui auront beaucoup de mal à s’adapter à des … changements d’intelligence, qui pourraient imposer de profondes reconfigurations algorithmiques. Minimiser ce genre de risques pourrait amener nombre d’entreprises ou d’organismes à n’exploiter l’intelligence artificielle que pour des missions spécialisées et bien circonscrites. Ainsi pourrait-elle prendre définitivement ses distances avec l’omnipotence que notre imaginaire se plaît à lui attacher aujourd’hui.
– Alors, “systématisme ou intelligence”?
– Peut-être, à terme plutôt… systématisme… et même peut-être lacunaire s’il devient trop coûteux.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *