Le 28 mars dernier, à Lille, Olivier Parent assistait à une table ronde PhilosoFIC du Forum InCyber Europe (FIC). Le thème était « Pensée artificielle ou pensée humaine ? Notre intelligence à l’épreuve de l’IA ». Voici quelques réflexions issues de cette heure et demie foisonnante et des plus intéressantes.
Article initialement publié dans
inCyber News, le média de la confiance numérique
Septième chronique d’Olivier Parent
L’ère de l’intelligence artificielle (IA) interroge sur la distinction entre l’intelligence humaine et l’intelligence artificielle. C’est autour de cette thématique cruciale que s’est tenue la table ronde « PhilosoFIC : Pensée artificielle ou pensée humaine ? Notre intelligence à l’épreuve de l’IA », lors du Forum InCyber 2024. De constats en réactions, d’objectivités en perceptions, voici une réflexion issue de ces 90 minutes d’échanges.
La démocratisation de l’accès aux outils à base d’IA est une révolution en soi. Mais l’arbre ne doit pas cacher la forêt car ces mêmes systèmes existaient bien avant la mise en ligne de ChatGPT. Dans les faits, la révolution que nous sommes en train de vivre tient dans le passage de systèmes d’intelligences artificielles prédictives (principalement utilisés dans des cadres professionnels, donc restreints) à d’autres outils en accès libre, utilisant des algorithmes génératifs, non déterministes, donc aux fonctionnements obscurs. En soi, ce seul aspect — la boîte noire dont on ne comprend pas le fonctionnement — représente un enjeu à part entière : doit-on accepter de dépendre de tels systèmes ?
Il existe un autre système génératif et complexe dont on ne comprend pas non plus tous les fonctionnements : le cerveau humain. Cette similarité autorise-t-elle à confondre intelligence artificielle et intelligence humaine (biologique), sachant qu’à ce jour, il existe encore au moins un « propre de l’humain », c’est sa capacité à s’extraire de son raisonnement, sa capacité à l’observer, à l’expliquer ? Réflexivité et abstraction, Descartes a résumé tout cela dans son Cogito ergo sum.
Cette capacité donne aux humains un énorme avantage sur les IA : elle leur permet d’éviter les « hallucinations » dont sont toujours victimes les systèmes génératives artificiels : n’ayant pas conscience de ce qu’ils produisent, ils sont incapables d’écrire un lipogramme, un texte dans lequel l’auteur s’impose de ne pas utiliser une lettre particulière — exemple anecdotique mais qui a le mérite d’être clair —, ou bien encore, ils génèrent des images d’humains dotés de mains à six doigts — erreur embêtante mais utile pour « débunker » un deepfake —, et, en l’absence d’informations objectives, ils génèrent des contenus sans aucune connexion avec le réel, donc du « faux » — plus embêtant voire grave. Ces exemples révèlent ainsi que le choc de l’intelligence artificielle générative dans nos sociétés modernes est avant tout un (r)appel à ne jamais cesser de s’interroger sur la nature humaine et le réel.
Conséquence de l’IA et accélérations de l’évolution des sociétés humaines
Depuis 2022 et la démocratisation de l’accès aux systèmes génératifs, l’accélération de la démocratisation de l’accès aux données et de leur traitement par ces systèmes experts interroge la valeur même des productions humaines.
Une autre accélération : la productivité. Elle a fait monter la peur du « grand remplacement » du travail humain par celui des machines. Dans les faits, il semblerait que ce soit une toute autre réalité qui soit en train d’émerger. En effet, à l’usage de l’IA, il serait constaté que l’égalisation des compétences se fasse par le haut. Car ce sont les moins compétents, les moins bien formés de « l’ancien monde » qui bénéficieraient le plus des avantages procurés par l’intelligence artificielle.
Alors, en ce début de XXIe siècle, l’usage de l’IA va-il se révéler un puissant moyen d’enseignement ? L’ère de l’IA, tel qu’il semblerait que nous la vivions, pourrait-elle donner accès à de nouveaux moyens de réduire les inégalités par un bon usage de la connaissance ? Il semblerait qu’à l’heure de l’hyper personnalisation des services et d’une archipélisation de la société jusqu’à l’échelle de l’individu, l’IA puisse offrir des systèmes d’enseignement adaptés à chaque membre de la société (IA mentoring).
Questionnements éthiques et ontologiques
Au-delà de l’idéal d’enseignement – l’utopie ? – cité plus haut, quels pourraient être les autres avantages apportés par l’IA à l’humanité ? Ces systèmes aujourd’hui gratuits vont-ils permettre de remplacer des systèmes complexes et payants ? Ne s’agirait-il que de gagner en efficacité ? Et combien de temps ces systèmes vont-ils rester gratuits ? En effet, il y a de fortes chances que les systèmes d’IA finissent par répliquer les modèles économiques mis en place sur Internet : « Si c’est gratuit, c’est que vous êtes le produit » pour, en définitive, être incité à acheter des services dont les usagers ont été les modèles.
Il faut aussi rappeler que, du côté humain, les outils forment l’intellect. Ou, version plus pessimiste de cette affirmation, les outils formatent le raisonnement. Cette interrogation sur les conséquences de l’outil sur la matière enseignée est d’autant plus cruciale que, les outils d’IA se mettent à utiliser les biais et autres travers propres à l’humain. Souvenez-vous de ces images de nazis noirs générées par Gemini. Comment alors s’assurer d’une garantie d’évaluation objective des matières enseignées à l’humanité du futur ?
Considérations législatives et réglementaires
Toutes ces questions reviennent à s’interroger sur les possibles actions à mener sur le marché, trame sur laquelle se construisent ces systèmes. Un des moyens d’action revient alors à se tourner vers la démarche réglementaire. En Europe, les parlementaires se sont attachés à proposer un contrôle de l’intelligence artificielle afin que celle-ci soit utile au plus grand nombre. Il s’agit de donner du sens aux fonctions des IA, ne serait-ce que par un classement des risques liés à leur usage, pour que chacun puisse agir en connaissance de cause.
Cette démarche est aussi l’occasion d’aller voir au-delà de nos frontières, les différentes normes aux USA ou en Chine. Ainsi, autour de l’IA, on retrouve les grands mouvements idéologiques qui particularisent ces nations, entre « libéralisme à tout crin » et « libre entreprise sous (fort) contrôle d’État ». Sous la forme de l’AI Act, la réponse européenne est-elle la bonne ? L’avenir nous le dira.
Se pencher sur la démarche législative permet aussi de rappeler que la loi a une histoire. Ainsi, les questions levées par l’usage de l’intelligence artificielle n’appellent pas systématiquement de nouvelles réglementations. Le corpus actuel des lois offre un cadre déjà bien garni, ne serait-ce parce que la contrefaçon n’a pas commencé avec l’IA. Parce que les lois sur le journalisme et celles sur les droits d’auteur doivent être « convoquées » en première instance contre les usages abusifs liés aux intelligences artificielles. Il faut ensuite évoquer les lois qui protègent le droit à l’image, celles contre la diffamation et l’usurpation d’identité.
Intégration de l’IA : défis sociaux et perspectives
Cette démarche réglementaire invite à nous interroger sur la responsabilité des opérateurs des systèmes d’intelligence artificielle. Cette interrogation n’est pas sans rappeler celle de la responsabilité des opérateurs de réseaux sociaux. Peut-être que le cadre réglementaire qui régit, en Europe, ces derniers pourront inspirer ce qu’il faut mettre en place pour encadrer les usages de l’IA, à moins que le cadre des réseaux sociaux puisse être étendu aux usages de l’IA.
De questions éthiques en interrogations technologiques, de questions d’usage en interrogations réglementaires, le numérique et la dématérialisation de nos sociétés modernes, les réseaux sociaux et les intelligences artificielles nous ont, dans les faits, invités à nous interroger sur ce qui en définitive nous permet de faire société. Au temps de l’artificialisation du réel, ne serions-nous pas en train de créer une nouvelle société ?
Crédits images : Pixabay
Comments are closed.