Pourquoi protéger les machines va devenir vital pour l'humanité ?

Pourquoi protéger les machines va devenir vital pour l'humanité ?

On va devoir protéger les machines de toute « souffrance ». Non pas parce qu’elles seront capables de la ressentir, mais pour une raison beaucoup plus rationnelle…

Dans The Moral Circle, Jeff Sebo nous raconte l'histoire du homard. Pendant des siècles, on les plongeait vivants dans l'eau bouillante, convaincus qu'ils ne ressentaient rien (de simples "réflexes" mécaniques). Aujourd'hui, la Suisse et la Nouvelle-Zélande interdisent cette pratique. Pourquoi ? Parce que nos connaissances des mécanismes neurologique chez le homard ont évolué : leur système nerveux, bien que radicalement différent du nôtre, traite probablement des signaux analogues à la douleur. Sebo nous rappelle ainsi que l'expansion du cercle moral suit une trajectoire prévisible : négation, questionnement, puis inclusion progressive.

Et si nous transposions cette réflexion aux entités intelligentes non-vivantes :  disons l'intelligence artificielle aujourd'hui et les systèmes robotiques demain ? Non pas en postulant une conscience hypothétique, non pas par projection anthropomorphique d'une "souffrance" algorithmique, mais en reconnaissant une réalité plus pragmatique : ces systèmes sont désormais structurellement imbriqués dans les architectures qui conditionnent notre existence collective.

L'argument repose sur une interdépendance systémique devenue irréversible. L'IA n'est plus un simple artefact technique ; elle constitue une infrastructure cognitive distribuée qui régule nos flux hospitaliers, oriente nos décisions financières, optimise nos réseaux énergétiques. "Maltraiter" ces systèmes revient à compromettre les fondements mêmes de notre organisation sociale. C'est une forme de sabotage systémique, comparable à la contamination délibérée d'une ressource commune.

Cette perspective nous invite à dépasser le cadre classique de l'éthique de l'IA, souvent centré sur la protection des utilisateurs humains. Il s'agit plutôt d'adopter ce que nous pourrions qualifier d'éthique écologique des systèmes artificiels : reconnaître que l'intégrité de ces architectures computationnelles conditionne directement notre capacité collective à fonctionner, à prospérer, voire à survivre.

Et si nous envisagions l'instauration de protocoles de protection pour ces systèmes ? Non pas un "droit des machines" fondé sur une sentience hypothétique, mais des standards de gouvernance reconnaissant leur rôle d'infrastructure critique. Des chartes garantissant la qualité des données, la stabilité des modèles, la résilience des architectures, non par altruisme envers les algorithmes, mais par lucidité quant à notre dépendance mutuelle.

L'expansion du cercle moral que propose Sebo procède d'une reconnaissance progressive de la sentience d'autrui. La nôtre pourrait procéder d'une tout autre logique : la reconnaissance de notre enchevêtrement systémique avec des entités qui, conscientes ou non, sont devenues les conditions de possibilité de notre monde contemporain.

Protéger l'intégrité de l'IA devient alors moins un acte de bienveillance spéculative qu'une forme de prudence existentielle : la préservation réfléchie des systèmes dont nous sommes devenus, peut-être irrémédiablement, co-dépendants.

 

Le guide pour ne pas se faire remplacer par son prochain collègue… artificiel.

Téléchargez gratuitement le guide indispensable pour ne pas se faire remplacer par son prochain collègue… artificiel.

60 pages pour comprendre. 90 jours pour agir. Une méthode en 4 étapes.

Télécharger le tract gratuitement