Deux Américains, Federico Pistono et Roman Yampolskiy, ont étudié les stratégies des futures intelligences artificielles, dans le cas où elles ne seraient pas bien intentionnées à l’égard de l’humanité. Une démonstration par l’absurde ? Décryptage de notre chroniqueur Jean-Paul Fritz.
Avoir peur des intelligences artificielles (I.A.), c’est dans l’air du temps. Elon Musk, Stephen Hawking et bien d’autres, nous ont prévenus de leurs dangers, et tentent parfois de mettre en place des garde-fous pour éviter que ces machines ne nuisent à l’espèce humaine.
Pour aller encore plus loin, on peut imaginer qu’une ou plusieurs I.A. soient « malveillantes » dès l’origine. Bien entendu, le terme lui-même est subjectif, car il implique que la machine aurait conscience de ses actes et agirait selon une certaine morale. Ici, on prendra « malveillante » plutôt dans le sens d’une intention de mener des actions nuisibles à l’humanité en général.
La suite, ici : Comment créer une intelligence artificielle malveillante ? Manuel à l’usage des apprentis – le Plus
Comments are closed.