Risques, IA et prospective : un mariage à trois naturel ? | Préventique

Olivier Parent Commentaires fermés sur Risques, IA et prospective : un mariage à trois naturel ? | Préventique
Risques, IA et prospective : un mariage à trois naturel ? | Préventique

Article publié dans le numéro 166 de Préventique (sept. 2019), la revue de la gouvernance des risques.


La prospective, démarche spéculative et créative s’il en est, peut-elle aider à la construction d’une chaîne de décision robuste dans l’évaluation et la prévention des risques ? Quel rôle pourrait être dévolu à l’IA dans cette construction ?

 

Envisager d’appliquer l’IA à la gestion des risques c’est demander à une intelligence artificielle de modéliser tout ou partie d’une société humaine pour tenter d’identifier en son sein les points de ruptures et d’envisager les stratégies d’amortissement et de résilience. En l’état actuel des choses, les IA envisagées dans ce cadre d’application seront des IA faibles, opposées à la notion d’« intelligence artificielle forte » (conscience artificielle autonome et généraliste), pendant artificiel de l’intelligence humaine.

Points de rupture d’un équilibre et catastrophes

Ceci étant établi, on pourrait, en qualité d’humains, commencer par tenter d’identifier les points de rupture de nos sociétés modernes. Il s’agit là de recenser les singularités aux conséquences négatives, que ce soit des ruptures, des accidents ou des transgressions… Une singularité survient quand un système, peu importe sa nature, arrive à son apogée, au point indépassable de son fonctionnement. La singularité est aussi ce moment de l’histoire à partir duquel les règles couramment admises et qui font société (règles éthiques, comportementales, commerciales ou technolo- gies…) sont radicalement remises en cause puis redéfinies pour, une nouvelle fois, faire consensus.

Envisager les conséquences issues d’une singularité revêt autant d’importance que la définition et l’identification des singularités

Si la singularité peut être définie comme une rupture de continuité d’un système, il est un constat qui s’impose : celui que le monde n’est que système – système solaire, biodiversité, système climatique, tectonique des plaques, systèmes informatiques, systèmes bancaires et assurantiels, systèmes politiques nationaux et internationaux, régulation des transports, systèmes de distribution divers et variés, systèmes industriels de production de produits, d’énergie, de biens, de services… De là à dire que le monde est en permanence à la merci de la survenue de singularités, il n’y a qu’un pas à franchir ; l’Histoire est là pour témoigner que ces émergences n’ont rien d’exceptionnel : catastrophes naturelles (volcans, tremblements de terre, cyclones…), catastrophes politiques (guerres, révolutions, coups d’état…), catastrophes écono- miques (révolutions industrielles, accidents industriels, inno- vations de rupture…) et bien d’autres encore… Toutes ces « catastrophes » étant le résultat de l’arrivée à son apogée d’un équilibre systémique, d’un consensus au maximum de sa tension, qui se réinitialise par une rupture : c’est le cas des tremblements de terre qui résultent d’une rupture au niveau de la tectonique des plaques, une rupture qui « réinitialise » l’équilibre, en attendant la suivante !

Dans les domaines politiques ou économiques, les ruptures ouvrent le plus souvent sur de nouvelles situations qui se révèlent aller dans des directions plus ou moins radicale- ment différentes des temps qui ont précédé l’émergence de la singularité : si la Révolution française a ouvert la voie aux démocraties, un coup d’état va parfois mener au pou- voir un dictateur… De même, si l’émergence de la machine à vapeur a permis la mécanisation de certaines tâches, libérant l’humain de lourds labeurs, elle n’en a pas moins créé et accentué de nouvelles disparités sociales… Il apparaît ainsi qu’envisager les conséquences issues d’une singularité revêt autant d’importance que la définition et l’identification des singularités.

Pertinence de l’usage de l’IA dans l’analyse des risques

Alors, pour tenter d’évaluer la pertinence de l’utilisation des IA dans les domaines de la gestion des risques, il faut donc se demander si, selon les domaines d’applications choisis, les systèmes auront accès à suffisamment de données pour que l’apprentissage automatique soit pertinent (machine learning qui s’appuie sur le deep learning). Si dans des domaines tels que la géologie et l’étude des mouvements des plaques tectoniques, on peut avoir la garantie que la collecte de données sera objective – elle dépend du nombre et de la répartition des capteurs à la surface de la Terre – dans d’autres domaines, comme par exemple la criminologie, l’applica- tion des IA peut être sujette à caution car les statistiques (d’agressions) ne sont pas des données objectives issues d’un capteur… Ainsi, il devient pertinent de se demander s’il est raisonnable de se fier à l’IA pour déterminer le déploiem- ent de forces de l’ordre sur un territoire.

En définitive et pour tenter d’évaluer ce qu’il pourrait résul- ter de l’utilisation des IA dans les domaines de la gestion du risque, on peut appliquer à cette problématique la démarche prospective. Le processus habituel de forecas- ting (« projection ») s’attache à décrire l’arbre des possibles, celui des conséquences issues d’un usage émergent, cette description étant réalisée à partir de faisceaux de postulats et d’hypothèses collectés dans le réel. Dans le cas de l’IA, qu’elle soit appliquée ou non aux domaines du risque, l’his- toire, la réalité est toujours en train de s’écrire : l’humanité n’est témoin que du début du déploiement de ce qui est tout à la fois une science fondamentale émergente, une technologie qui ne cesse de se réinventer et un marché en perpétuelle évolution.

Rôle de la prospective

Traitant cette réalité encore mouvante, celle des IA, la prospective peut étrangement se permettre d’inverser la relation de cause à effet, en passant du forecasting au backcasting, en construisant un raisonnement à partir d’un éventail de conséquences issues de démarches alternatives tels que des exercices de Prospective Design ou des col- lectes effectuées dans la science-fiction… On redescend alors l’arbre des possibles, en direction d’un réel mouvant, en explorant de nouvelles étapes causales. En remontant le cours du parcours logique, on fait émerger des situations, des causes spéculatives qui n’auraient pas eu l’occasion d’être mises en lumière par les canaux habituels…

La prospective ainsi mise en œuvre se fait outil d’aide à la décision. Il s’agit d’oser imaginer l’impensable, non pour l’exorciser ou, au contraire, en faire une prophétie auto-réali- satrice, mais pour envisager les options, souhaitables ou non, qui se présentent en réponse à une ou des situations émer- gentes. Si le droit français édicte que « Nul n’est censé ignorer la loi », la prospective pourrait bien proposer que « Nul n’est censé ignorer l’avenir », c’est-à-dire nul n’est censé ignorer les spéculations – d’avenirs projetées à partir des postulats issus du présent – qui doivent construire le consensus sur lequel s’appuiera, jour après jour, la société pour construire volontairement son avenir.

La prospective ainsi mise en œuvre se fait outil d’aide à la décision

 

Comments are closed.