Ce n’est pas très clair dans sa tête, il le reconnait, mais Jean Michel Barquet pense que cela a commencé par l’achat de livres sur Amazon. Un beau matin il a été dérangé par un livreur qui lui a délivré un petit colis de la marque. Intrigué, imaginant une erreur ou un cadeau, il a ouvert son paquet. Quelle ne fut pas sa surprise, agréable au demeurant, d’y trouver les deux derniers ouvrages de Stephen King, son auteur préféré. La surprise devait se transformer en quelque chose de plus intriguant. Le bordereau du colisage indiquait qu’il était lui-même à l’origine de la commande. D’ailleurs son compte bancaire était débité du montant de l’achat. Jean Michel Barquet resta un moment perplexe et déstabilisé en s’interrogeant de savoir quand il avait pu faire cette commande et, ce qui l’inquiétait au plus haut point, pourquoi n’en avait-il aucun souvenir. Au bout de quelques jours il décida d’oublier cet étrange épisode. Sans doute un gros coup de fatigue. Une semaine plus tard, de retour épuisé de son bureau à plus d’heure, un livreur de pizza se présentait à son domicile. Eberlué mais convaincu que l’on lui avait livré une pizza destinée à quelqu’un d’autre, il la dévora de fort bon appétit. A partir de là, des évènements surprenants commencèrent à l’obliger à s’interroger sur sa santé mentale. Le pire fut sa rencontre avec son ex-femme.
Jean Michel Barquet était un homme timide et plus à l’aise avec ses outils de programmation et ses algorithmes qu’avec les relations sociales … qu’il évitait. Jeune divorcé, il s’investissait depuis des mois dans les applications d’avatars proposés par son entreprise à une clientèle intéressée par l’utilisation de « jumeaux numériques » doté d’IA. Algo, la propre version du jeune homme incorporait des algorithmes en mesure d’analyser en continu ses préférences vestimentaires, artistiques et sentimentales. Son jumeau était un avatar en mesure de recevoir en son absence les messages de ses rares relations, d’y répondre, de le conseiller, de lui faire des suggestions et d’anticiper ses besoins intimes, profonds. Jumeau numérique, détenteur des moindres aspirations, conditions de vie et expériences passées de Jean-Michel, rien des désirs de son original ne lui échappait. Algo était devenu mentaliste.
Quelques jours plus tard, Jean-Michel Barquet eut la surprise de trouver sur son répondeur un message de son ex-femme qui acceptait de dîner avec lui. Difficile de décrire son plaisir à cette nouvelle sinon qu’ayant accepté avec enthousiasme la rencontre, il devait découvrir au cours du diner qu’un tiers l’avait organisé. Son ex, partagée entre contrariété et perplexité, lui affirma qu’elle était persuadée qu’il était à l’origine de ce rendez-vous. La rencontre finit mal et Jean Michel retourna à ses IA en tentant d’oublier l’intervention du mauvais plaisant sauf que ce dernier ne le lâchait plus. Les propositions de services de rencontres avec des femmes de tout âge ne cessaient de remplir sa boite de courriels. Avec l’aide d’un camarade de travail spécialisé dans la cybersécurité, il se lança dans la traque de son tourmenteur. Ce dernier ne cherchait pas à se cacher. Découverte stupéfiante : il s’agissait de son double numérique, Algo, qui multipliait les initiatives pour répondre à des besoins pas toujours correctement et explicitement émis par Jean Michel.
Il fallut bien se rendre à l’évidence le jumeau numérique, l’avatar de JM s’émancipait, divergeait et perturbait la vie de l’original. Algo prenait des initiatives sur la base d’algorithmes d’apprentissage qui échappaient à son créateur car mis à jour automatiquement par l’IA. Comme celle-ci ne disposait pas des entrées sensorielles de l’original, ses interventions devenaient de plus en plus « hors contrôle ». Pour les membres de son équipe projet, Jean Michel devenait, et son jumeau numérique avec lui, les cobayes d’une découverte qui les dépassait.
Un psychiatre fut appelé en renfort. Ce dernier n’hésita pas à affirmer que la version numérique de JM, dépourvue de perceptions sensitives et émotionnelles présentait toutes les caractéristiques d’un patient atteint de schizophrénie. Ses attributions étant réduites à des actions sur « l’immatériel », son comportement devenait délirant en ce sens que la logique de l’IA guidée par des algorithmes « de suppositions ou de croyances » mathématiques était la proie de troubles psychologiques. Algo, l’IA de Jean Michel était passé de l’analyse du réel, à la probabilité des évènements puis à la prédictibilité opérationnelle : pour elle la décision d’une action découlait de sa logique propre faute de pondération entre les données, les souvenirs stockés et l’analyse des possibles excluant tous les inhibiteurs à la décision, d’où ses délires de jumeau numérique. Bref, en conclut le professeur encore amusé de cette aventure : la perception d’autrui, de l’environnement réel donne lieu à des biais et limite la pertinence des propositions d’un avatar, fut-il une IA bourrée d’algorithmes. Depuis Jean Michel est devenu très méfiant des applications et usages des IA. Il a accepté de nous en dire les raisons essentielles[1].
Pour lui les IA sont des boites noires. « Cette ménagère vient d’attraper une boite de conserve sur un rayon quelconque de cette supérette. Sans le savoir elle a déclenché un effet de seuil. Le senseur d’un programme informatique annonce une diminution du stock minimum disponible. Immédiatement une chaine d’information déclenche la création d’une commande de réassort pour ce magasin auprès de son fournisseur ». Il s’agit d’une programmation systémique reliant plusieurs acteurs de la chaine afin de réassortir le rayon du magasin. Il n’y a pas d’IA dans ce processus. Alors où est-elle ? La voilà : « La tentative de réassort ne fonctionne pas. Fournisseur en rupture de stocks, blocage des matières premières etc. etc… L’IA va utiliser ses algorithmes pour lancer alors un ensemble de séquences afin d’identifier un ou plusieurs autres fournisseurs potentiels. Puis comparer les prix proposés, les délais de livraison, les conditions de paiement, les garanties de qualités et même les avis des clients grâce à l’exploitation de millions de données « disponibles à l’extérieur du système informatique de la chaine des superettes ». La chaine de supérettes devient dépendante d’une boite noire dont elle ne connait rien.
Les IA n’ont pas de personnalité juridique. La frontière est ténue entre les systèmes informatiques traditionnels qui se contentaient de compiler des données et de les comparer et ceux qui commencent grâce à des algorithmes à s’appuyer sur des modélisations capables d’optimiser un trafic, de déceler des anomalies dans des déclarations fiscales, la nature des sols, les comportements à risques et j’en passe. Elle est tenue et fragile. Compiler des données, des infos pour en déduire – par exemple – des comportements à risque, prédire les lieux d’une prochaine catastrophe, ou une explosion sociale de façon crédible n’a rien d’évident. Aide à la décision ? Estimer et comparer différents scénarios sur les retombées économiques d’une pandémie ou d’une rupture d’approvisionnement en céréales. Sans doute. Substitution à la prise de décision humaine. Surtout pas. Seule l’anticipation avec un degré d’incertitude égal à zéro peut être acceptable. Sinon, vous vous voyez faire un procès à une IA qui se serait plantée !? Laissons aux hommes la créativité et aux automatismes le soin d’en prédire les potentialités possibles et les risques à envisager.
Les IA n’ont pas de sentiments, ni morale, ni éthique. Accepter de déléguer l’autorité à des machines sans « sentiments » ni éthique est la pire des dérives des applications des IA. Les lois de la robotique d’Isaac Asimov obligent les chercheurs en IA à s’intéresser aux comportements ou plus précisément aux dérives possibles de leurs applications. Des chercheurs de l’Institut Allen pour l’Intelligence artificielle à Seattle tente de créer une nouvelle technologie destinée à émettre des jugements moraux. Ils l’ont nommée Delphi en hommage à l’oracle de la Grèce ancienne. Ils espèrent à terme mettre au point une IA porteuse d’une éthique que l’on pourrait adjoindre à un service en ligne, un robot, un avatar. On retrouve dans leurs expériences l’analyse des choix moraux qui, selon Asimov, conditionnerait le comportement des machines dotées d’IA. On est loin du compte. Introduire la morale humaine dans une IA dépourvue d’émotion ce n’est pas gagné[2]. Jean Michel Barquet pourra en témoigner.
Denis Ettighoffer
[1] Voir aussi : https://www.ettighoffer.fr/2835/le-cerveau-augmente-les-avatars-semantiques
[2] Pour en savoir plus : https://fr.education-wiki.com/8748688-data-mining-algorithms
Comments are closed.