ZERO TRUST ET SCIENCE-FICTION | Forum inCyber 2025

Olivier Parent 0
ZERO TRUST ET SCIENCE-FICTION | Forum inCyber 2025

Quatre réflexions, présentées lors du Forum inCyber 2025, autour du Zero Trust, la notion de cybersécurité, pour (re)penser l’anonymat au temps du tout numérique, la perspective de la mise en place d’un crédit social, la gestion des données individuelles et les conséquences des systèmes autonomes de tirs létaux… Le Zero Trust pouvant être définit ainsi : aucun système ne doit être présumé fiable par défaut. Dans ce cadre, aucune confiance n’est accordée à un système sans qu’il est fait la preuve répétée de son authenticité et de sa fiabilité.

Lien vers la vidéo : https://www.youtube.com/watch?v=h7LWKGRIaZo&list=PLQR2AH49u76llkGVGy95fUFJuaECVkZFg&index=1

Anonymat & Cyberespace

L’anonymat en ligne, autrefois un pilier du cyberespace, est aujourd’hui remis en question. Longtemps, l’anonymat a permis à chacun de circuler librement sur Internet, d’interagir sous pseudonyme, de se créer autant d’avatars que souhaité… tout cela sans contrainte. Mais avec la dématérialisation croissante de nos sociétés, la généralisation des systèmes d’authentification et celle de gestion des identités numériques, cette liberté tend à s’effacer. Les espaces numériques deviennent des environnements encadrés et contrôlés au nom de la sécurité des systèmes — publics comme privés — et des utilisateurs.

Pour illustrer ces enjeux, on peut penser à un film comme Ready Player One de Steven Spielberg. Il met en scène l’Oasis, un métavers, ou univers virtuel persistant dans lequel chacun peut incarner l’identité de son choix. Grâce à l’anonymat, les utilisateurs échappent aux contraintes du monde réel que celles-ci soient sociales, économiques, physiques, voire environnementales. Mais ce métavers est surtout menacé par des entreprises qui cherchent à monétiser les identités numériques. La lutte entre le héros et une de ces sociétés reflète une tension bien réelle : celle entre un Internet ouvert et un Internet sous surveillance.

En matière de cybersécurité, le modèle dominant aujourd’hui est le Zero Trust, principe selon lequel aucun système ne doit être présumé fiable par défaut. Ce protocole, pensé pour les machines, pour les systèmes informatiques, pourrait devenir une norme des relations inter-personnelles dans les espaces numériques ou virtuels. Dans ce cadre et cette perspective plus ou moins lointaine, entreprises et États développent des dispositifs d’authentification toujours plus sophistiqués. Objectif : garantir la sécurité des transactions et interactions. Mais jusqu’où aller dans la levée de l’anonymat pour renforcer la sécurité collective ?

Dans les faits, nous avons déjà basculé dans un monde où chaque individu est tracé en permanence. Dans ce même monde qui est en train de basculer du tangible vers le virtuel, le risque est de voir la présomption d’innocence être remplacée par la présomption de fraude : toute action anonyme devenant suspecte par nature. Ready Player One montre que la fin de l’anonymat n’est pas qu’une affaire de sécurité, mais aussi un danger pour les libertés fondamentales, individuelles aussi bien que collectives. Pensons ici aux lanceurs d’alerte ou aux journalistes : leur travail dépend d’un anonymat numérique garanti.

Alors, l’anonymat est-il voué à disparaître ? Pas forcément. En tout cas, il se recompose. La question n’est plus « faut-il un Internet anonyme ? » mais : comment préserver un équilibre entre la protection des systèmes et le respect des libertés individuelles ? Ce respect des libertés individuelles est une des conditions essentielles de l’État de droit dans le monde tangible. Il est sûrement à appliquer, à injecter dans le monde  virtuel que nous sommes tous en train de bâtir.

Nous sommes donc à un tournant décisif. C’est aujourd’hui que nous devons réfléchir collectivement à l’architecture sociale du monde numérique de demain. Cette réflexion est fondamentale. Elle dépasse la question de la sécurité des systèmes pour toucher à notre rapport à la vie privée, aux identités, et à ce que signifiera véritablement être libre dans le monde numérique de demain.

Vous avez dit Crédit social ?

Le crédit social… Ce concept semble sortir tout droit d’une dystopie de science-fiction. Et pourtant, il est déjà une réalité dans certains pays, notamment en Chine. L’idée ? Évaluer les individus en fonction de leurs actions, de leurs choix et surtout de leur conformité aux normes sociales définies par l’État. Cette notation influe directement sur les capacités d’accès des citoyens chinois à certains services, comme un prêt bancaire, un emploi ou même un simple billet de train. 

Une question essentielle se pose alors : qu’en est-il de l’usage des données personnelles ? Dans un système où le crédit social est la norme, qui décide de ce qui doit rester confidentiel et de ce qui peut être utilisé pour évaluer un individu ? En Chine, ces limites semblent pour le moins floues. Pour mieux comprendre la situation chinoise, je vous invite à découvrir le documentaire Ma femme a du crédit. Il est disponible sur YouTube, sur le compte de La chaîne parlementaire. Il montre à quel point cette surveillance omniprésente est acceptée, voire intégrée par la population chinoise. Attitude pour le moins étonnante de notre point de vue européen. 

Ce que met en lumière le documentaire, la série Black Mirror l’a anticipée sous une forme encore plus radicale. Dans Chute libre, l’épisode 1 de la saison 3, la logique du crédit social est poussée à son paroxysme mais selon d’autres règles que celles qui sont appliquées actuellement en Chine : là, chaque interaction sociale de chaque individu est immédiatement notée par son entourage physique ou virtuel. Sur cette base, tout le monde cherche alors à maximiser son score au détriment d’une sincérité pourtant essentielle aux relations humaines. On n’interagit plus avec spontanéité, mais dans l’espoir d’être bien noté. Et lorsque l’on perd des points, c’est toute une vie qui risque de s’effondrer. L’héroïne de l’épisode, Lacie, en fait l’amère expérience : à la suite de diverses mésaventures, sa note chute et avec elle, sa capacité d’accès à des services essentiels. Le monde de Lacie est une société où l’apparence et la validation sociale remplacent l’authenticité et la confiance.

En observant attentivement cet épisode de Black Mirror, on pourrait presque dire que le modèle social qu’il présente est une dérive du concept de Zero Trust. Appliqué aux machines et aux systèmes informatiques, ce principe a du sens pour garantir leur bon fonctionnement, on en est convaincu. Mais lorsqu’il est transposé aux relations humaines, il devient profondément toxique. Il crée une société où chaque individu que je suis amené à croiser est un danger potentiel Il crée un monde où la moindre déviance, réelle ou perçue, entraîne une rétrogradation sociale quasi immédiate. 

Ce que j’évoque ici n’est pas qu’une fiction lointaine. Aujourd’hui, nos technologies permettent déjà d’évaluer et de profiler les citoyens. Officiellement, en France, nous ne sommes pas soumis à un système de crédit social, bien qu’on ait tous une note de crédit bancaire… Et, avec les avancées en intelligence artificielle prédictive, nous pourrions bientôt entrer dans une nouvelle ère. 

Imaginez un monde dans lequel le système anticipe nos décisions avant même que nous ne les ayons prises et  le taxi autonome dont j’ai besoin m’aura rejoint en quelques brèves minutes : le système aura anticipé ma demande en plaçant une de ces machines à proximité. Mais qu’en est-il si l’algorithme décide que je ne suis pas digne de ce service ? Il semblerait alors que le crédit social, sous prétexte de protéger la collectivité, restreint insidieusement les libertés individuelles. L’épisode Chute libre nous met en garde : dans un monde où nous sommes évalués en permanence, où la confiance a été remplacée par une surveillance omniprésente, le risque est de glisser vers une société où l’humain n’est plus qu’un numéro, un score, une variable à contrôler, à ajuster. Et si nous n’y prenons pas garde, cette dystopie pourrait bien devenir notre réalité.

Données individuelles & intelligences artificielles

L’intelligence artificielle révolutionne notre rapport aux données, aux data, mais elle soulève aussi une question essentielle : Comment surveiller, classifier et protéger ces données en fonction du risque qu’elles pourraient représenter pour les individus et les organisations ? L’objectif de cette classification est double : d’une part, garantir la protection des droits fondamentaux des citoyens, en évitant toute exploitation abusive de leurs informations personnelles, et d’autre part, protéger les entreprises contre les cyberattaques et l’espionnage industriel. Mais où placer la frontière entre cybersécurité et cybersurveillance ?

Le film Elysium de Neill Blomkamp illustre cette problématique à travers la description d’un monde dystopique : Là, sous la forme de robots, l’IA est omniprésente. Elle a même pris en charge des fonctions que nous considérons aujourd’hui comme nécessairement humaines. Dans cet univers, des machines sont utilisées comme policiers ou comme juges. Ces machines agissant à l’égard des humains sans la moindre capacité d’empathie, de nuance ou d’interprétation. Une IA peut-elle rendre la justice avec discernement ? Le film répond : non. Ce que Elysium par contre nous montre, c’est le risque d’un monde administré par des algorithmes dépourvus d’humanité, incapables de comprendre la complexité des situations individuelles.

Dans le domaine médical, pourtant, l’IA rend bien des services. Elle est capable de détecter des anomalies invisibles à l’œil humain sur une radio ou un scanner. Mais ces avancées, si bénéfiques soient-elles, interrogent : Le secret médical pourra-t-il survivre à un monde où nos dossiers médicaux sont dématérialisés et potentiellement analysés en continu voire même piratés ? Et si demain, notre montre connectée révélait des indices sur notre état de santé, serons-nous toujours libres de contracter une assurance sans être pénalisés par une analyse défavorable de notre profil ? 

Ces interrogations s’étendent bien au-delà du domaine médical. Que se passera-t-il lorsque les IA prédictives seront capables d’anticiper les comportements humains collectifs ? Les premières tentatives de surveillance algorithmique des villes ont échoué, c’était autour de 2013, aux USA. Mais avec les IA génératives contemporaines, ces systèmes reviendront, sous une forme plus performante, peut-être aussi plus insidieuse. Imaginez un monde où des algorithmes, jugés infaillibles, influencent en amont sur nos libertés : quels recours auront celles et ceux qui seront classés comme « à risque » sans avoir jamais commis la moindre infraction ? 

C’est là que le concept de Zero Trust prend tout son sens. Ce principe – d’une confiance à toujours renouveler – appliqué aux systèmes autonomes signifie que toute IA, capable d’apprendre et d’évoluer, doit rester encadrée et supervisée par les humains de manière stricte. Mais, pris dans la fascination de l’innovation et dans l’urgence du développement des parts de marché, prenons-nous effectivement le chemin d’appliquer ce principe de précaution ? Ou bien avons-nous déjà laissé l’efficacité sociale algorithmique prendre le pas sur la prudence et le contrôle humain ?

Ainsi Elysium nous met en garde : lorsque l’on confie trop de pouvoir aux machines, la frontière entre progrès et oppression devient tenue. Ce film nous interroge sur un dilemme fondamental : si nous entreprenons rien, quel recours aurons-nous contre un système qui nous classera, nous surveillera et nous contrôlera au nom d’une prétendue optimisation sociale ? Où tracera-t-on la ligne rouge entre innovation et protection de nos libertés ? Et surtout… serons-nous encore capables de nous révolter pour les défendre ?

Armes autonomes 

Aujourd’hui, le développement des armes autonomes soulève des questions éthiques et stratégiques d’une ampleur inédite. L’un des principes fondateurs du modèle de sécurité informatique dit Zero Trust consiste à ne jamais accorder une confiance aveugle à un système, et à toujours maintenir un contrôle humain sur les décisions majeures. Or, avec la montée en puissance des systèmes d’armement autonomes, on entre dans une ère où des machines pourraient décider seules de l’usage de la force létale, sans intervention humaine. C’est un basculement.

Pourtant, la science-fiction nous a depuis longtemps alertés sur ces dérives. Prenons par exemple le film Total Recall, dans sa version de 2012, adaptation d’une nouvelle de Philip K. Dick. On y voit un monde où la sécurité publique est assurée par des robots, capables d’intervenir, de tirer, voire de tuer de manière autonome. Ce n’est pas un cas isolé : des films comme Elysium, Robocop, Matrix, Terminator, tous montrent des robots policiers ou militaires autorisés à employer la force létale sans validation humaine. Dès 1927, le film Metropolis de Fritz Lang anticipait déjà la question d’un tel pouvoir délégué aux machines.

Ce qui est particulièrement frappant dans Total Recall, comme dans Elysium, c’est que l’usage de la force ne s’applique pas de la même manière à tous les humains. Il y a des humains « pleinement humains », et d’autres considérés comme des sous-citoyens, pour lesquels la violence, voire la mort, devient acceptable. Cela remet fondamentalement en cause l’égalité du droit à la vie et à la protection de la loi. On est là dans une forme de perversion des célèbres lois de la robotique formulées par Isaac Asimov dès 1942. Vous les connaissez peut-être. Je les rappelle brièvement : première loi, un robot ne doit pas nuire à un être humain ; deuxième : il doit obéir à un ordre humain, sauf si cela contredit la première loi ; et troisième : il doit se protéger, sauf si cela contredit les deux premières lois. 

Or, aujourd’hui, notre réalité  pénètre de plain pied dans la fiction. Des armes autonomes existent déjà. Depuis 2013, la zone démilitarisée entre les deux Corée est équipée de tourelles automatiques capables de tirer sans intervention humaine. Plus récemment, une vidéo sur YouTube a montré une démonstration saisissante : un ingénieur a relié une tourelle de tir à une IA type ChatGPT. Il suffit de donner une commande vocale — « tire sur les ballons rouges » — et la machine s’exécute. Depuis, le compte Open AI de ce développeur a été suspendu, mais « le Rubicon a bel et bien été franchi ». Il est aujourd’hui techniquement possible de transformer n’importe quelle IA accessible par le grand public en système d’armement autonome. Et avec les progrès en robotique, ces machines ne sont plus seulement fixes : elles peuvent se déplacer, s’adapter, traquer.

Pour prendre la juste mesure de ce basculement, le marché mondial des armes autonomes devrait atteindre en 2030 près de 10 milliards de dollars. Les Nations unies tentent de réguler ce champ d’application de IA, mais la technologie avance plus vite que le droit, d’autant qu’il y a des champs particuliers : En France, la Marine nationale a déjà recours à des systèmes de tir automatique pour se défendre contre des missiles hypersoniques.L’enjeu est tel — les quelques secondes après qu’un des ces missiles aient jaillit au-dessus de l’horizon — que le temps de réaction humain s’avère trop lent. On délègue donc, dans ces cas extrêmes, la décision de tir à la machine, en supposant qu’il n’y a pas d’humain dans ces engins. 

Alors, posons-nous la question : jusqu’où irons-nous ? Est-on en train d’accepter que les vies d’individus puissent être retirées sans aucune validation humaine ? Si « la guerre est, selon Clemenceau, une chose trop sérieuse pour être confiée aux militaires », alors à plus forte raison, comment envisager qu’on puisse la confier aux machines ?

Ce que montrent les films comme Total Recall ou Elysium, c’est que cette bascule a déjà été imaginée, évaluée, redoutée… et aujourd’hui, nous sommes peut-être déjà en train de l’accepter, à petites doses. C’est pourquoi il est urgent de s’interroger, collectivement, sur ce que nous voulons faire — ou ne pas faire — avec ces technologies. Avant que la ligne entre science-fiction et réalité ne soit définitivement effacée.

Leave A Response »

You must be logged in to post a comment.