L'IA va-t-elle aggraver la crise de l'autorité ?

L’autorité en déroute

L'IA diagnostique plus vite et mieux que votre médecin généraliste. Elle répond plus posément que votre psy. Elle corrige les copies de vos enfants avec davantage de rigueur que leur professeur. Elle prédit les décisions de justice avec une précision que les magistrats peinent à égaler. Elle formule des propositions de politiques publiques en quelques secondes, chiffrées, optimisées, argumentées.
Si l’IA est plus compétente que le médecin, le professeur, le juge, le politique, etc., la crise d'autorité est assurée. Imaginez les conséquences sur la société si chaque citoyen possède, dans sa poche, une autorité supérieure à toutes les autorités reconnues. Pourquoi faire confiance à l’humain si la machine fait mieux ?

Cette question marque un tournant. Car elle ne concerne plus seulement la performance technologique, mais la légitimité de ceux à qui nous avions jusqu’ici confié nos corps, nos enfants, notre sécurité, nos lois. Si une intelligence artificielle devient plus compétente que les figures d’autorité traditionnelles, que reste-t-il à celles et ceux qui prenaient jusqu’ici les décisions ? Ce basculement n’est plus hypothétique. Il est en cours. Et avec lui s’annonce non pas une crise de compétence, mais une crise d’autorité !

Les réflexes dépassés

Face à cette bascule, les premières réponses sont naïves et même contre-productives. Interdire l'usage de certaines IA pour maintenir l'autorité humaine est une réponse classique. Mais limiter un outil plus rapide, plus précis, moins biaisé, reviendrait à imposer à chacun une perte volontaire de performance. Les citoyens contourneraient. Ils iraient chercher ailleurs ce qu’on leur refuse ici. L’interdiction nourrit l’adoption sauvage.

Deuxième réponse : rendre les IA plus explicables. Mais soyons honnêtes : peu de citoyens veulent comprendre les arcanes d’un réseau de neurones. Ce qu’ils attendent, c’est une réponse fiable, rapide, assumée. Le reste est littérature.

Troisième tentative : hybrider l’humain et la machine. Faire travailler les deux ensemble. C'est plus complexe que cela n'y paraît ; on y revient plus bas. Une approche simpliste de "l'humain au centre" risque d'être contre-productive. En effet, en médecine par exemple, il est prouvé que l’IA seule dépasse déjà l’IA accompagnée d’un humain. L’idée de la complémentarité est rassurante, mais elle ne suffit pas toujours à compenser l’écart de performance.

Refonder l’autorité : le modèle des 3 S

Il ne s’agit pas de freiner la progression de l’intelligence artificielle. Il s’agit de repositionner l’autorité humaine là où elle reste, peut et doit rester essentielle. C’est là qu’intervient un modèle articulé autour de trois piliers : Solvabilité, Secours, Souveraineté.


Solvabilité : assumer le risque

L’humain reste responsable dans un cadre défini. L’IA est assurée. L’autorité vient de la capacité à couvrir les conséquences, pas à tout prédire.

Si l’IA est plus performante, elle reste irresponsable. Ni civilement ni pénalement, elle ne peut être tenue comptable de ses erreurs. Il faut donc articuler un cadre juridique simple. Tant que l’humain utilise l’IA dans les conditions prévues par la loi, en respectant les règles de conception ou d’usage, alors, en cas de défaillance, c’est une assurance obligatoire qui prend en charge les dommages. Si l’humain sort du cadre, il redevient responsable. Ce principe (indemniser d’abord, enquêter ensuite) est déjà à l’œuvre dans le droit routier. Il ne s’agit pas d’imputer une faute morale à la machine, mais de garantir à la société qu’en toute situation, quelqu’un répondra. Cette approche est largement développée par Alain Bensoussan dans ses travaux de droit des IA et des robots.


Secours : entretenir la compétence

Le professionnel conserve la capacité d’intervenir sans IA. Sans compétence de secours, plus de légitimité en cas de défaillance du système.

Il faut qu’en cas de panne, quelqu’un sache encore faire. C’est le principe du skill-freeze, emprunté à l’aéronautique. J'ai appris à piloter des avions de tourisme. Et pendant toute ma formation, mon instructeur m'a toujours interdit d'utiliser un quelconque appareil électronique (GPS, calculateur de route, générateur de plans de vol...). J'ai appris à voler avec une carte papier, une montre et quelques instruments basiques. Il en ira de même pour les professions critiques. Médecins, juges, professeurs devront, à intervalles réguliers, exercer sans IA. Non pour rivaliser, mais pour entretenir cette compétence de secours, cet art de faire sans. Parce qu’en cas de panne, seule cette compétence humaine permet de reprendre la main.


Souveraineté : décider en conscience

L’humain garde le pouvoir normatif de décider ce qui est juste. L’IA optimise. Seul l’humain arbitre ce qui est acceptable pour la société.

L’IA peut recommander, simuler, anticiper. Mais elle ne doit pas décider seule. Il faut dissocier clairement deux fonctions : l'expert et l’arbitre. L’IA joue le rôle de l'expert. Elle produit une solution optimale, une proposition. L’humain reste l’arbitre. Il décide si cette proposition est acceptable, juste, tenable. Cette capacité normative ne relève pas du calcul. Elle relève de la culture, de la morale, du droit, du symbolique. Décider d’un traitement, d’une peine, d’une politique, ce n’est pas seulement choisir la meilleure option théorique. C’est aussi trancher dans un monde de valeurs.

Quatre métiers à l’épreuve du modèle


Le médecin

Solvabilité : Assurance obligatoire pour les IA de diagnostic. Praticien responsable dans le cadre légal.

Secours : Quotas de pratiques manuelles. Diagnostic sans IA.

Souveraineté : Le médecin annonce, adapte, explique et engage sa parole face au patient.




 

Le juge

Solvabilité : Logiciels prédictifs assurés. L’État ou le magistrat assume en cas d’erreur procédurale.

Secours : Exercices de rédaction à la main. Plaidoiries sans modèle IA.

Souveraineté : Le juge motive sa décision en droit. Il incarne la proportion, la clémence, la justice vivante.


 

Le professeur

Solvabilité : IA éducatives sous contrôle. Responsabilité finale de l’évaluation reste humaine.

Secours : Enseignement « à la craie ». Examens oraux manuels.

Souveraineté : Le professeur choisit les outils, adapte la pédagogie, reste référent moral et éducatif.



 

Le politique

Solvabilité : IA d’aide à la décision assurée. Elu responsable devant les urnes.

Secours : Débats hors IA. Contact de terrain obligatoire.

Souveraineté : L’élu tranche dans l’incertitude, représente des valeurs, rend des comptes devant les citoyens.



 

L’autorité, redéfinie...

Ce modèle ne cherche pas à ralentir l’IA. Il tente de définir un cadre à l'intérieur duquel on peut faire coexister performance algorithmique et légitimité humaine. Il ne repose ni sur la croyance, ni sur la nostalgie, ni sur le déni. Il repose sur un constat simple : l’humain n’a plus le monopole de la compétence, mais il reste seul à pouvoir décider en conscience, porter la responsabilité, incarner la norme.

Le médecin peut ne plus être le meilleur diagnosticien. Le juge, le meilleur arbitre. Le professeur, le plus précis (et pédagogue). Le politique, le plus lucide. Mais tous peuvent rester légitimes, à condition de répondre des conséquences, d’entretenir leur compétence et d’assumer leurs choix.

…ou pas ?

Dans ce modèle, la machine calcule. L’humain tranche. Et, surtout, l’humain s'engage et répond de ses décisions.
À moins que je ne sous-estime, encore, les capacités de l'IA et surestime celles de l'humain ?