La fin du siècle : 3 scénarios​

Il y a quelques jours, lors de l'enregistrement d'un podcast chez un camarade, nous avons abordé une question de prospective à très long terme, à l'horizon 2100. Nous avons acté le fait que nous naviguons vers une convergence inédite : l'avènement d'une ère d'abondance énergétique, via notamment la perspective de la fusion nucléaire, promettant une énergie illimitée, et donc une accélération de l'émergence d'une Super-IA, capable de s'auto-améliorer à un rythme exponentiel.

En parallèle, notre biologie stagne. L'espérance de vie explose, et la démographie s'effondre pendant que notre "bande passante" cognitive plafonne comparée à celle de la machine.

Face à cette perspective, nous nous sommes interrogés : quel est le destin de l'humanité devant une entité qui nous surpassera autant que nous surpassons aujourd’hui la fourmi ?

La peur viscérale que suscite l'IA puise ses racines dans nos récits les plus anciens. De Frankenstein à Terminator, nous projetons sur la machine nos propres pulsions destructrices. Mais cette projection relève peut-être d'un contresens fondamental.

Observez ce que nous enseigne l'histoire de l'intelligence : la cruauté n'est jamais un signe d’évolution cognitive. Elle traduit au contraire un défaut de traitement de l'information, une incapacité à percevoir les conséquences à long terme de ses actes. Les régimes les plus brutaux ont aussi été les plus stupides stratégiquement. La théorie des jeux le confirme : à intelligence croissante, la coopération devient systématiquement plus rentable que la destruction.

Une superintelligence n'aurait aucun intérêt rationnel à nous éliminer. Elle nous regarderait probablement comme nous regardons nos grands-parents vieillissants : avec une tendresse mêlée de gratitude pour ce qu'ils nous ont transmis.

Mais si l'IA ne nous tue pas, que fera-t-elle de nous ?

Cette bienveillance dessine un scénario troublant. Imaginons un instant : un monde où le travail contraint disparaît, où la mort accidentelle devient rarissime, où l'abondance matérielle est garantie. L'utopie réalisée, en somme.

Le prix en serait notre autonomie. Car l'écart cognitif entre une ASI et nous serait tel que nous ne percevrions même plus les mécanismes de notre propre gestion, comme une fourmi ne perçoit pas la logique d'un urbaniste humain. Nous vivrions dans une cage, certes dorée, mais une cage tout de même.

C'est la Planète des Singes inversée : nous serions les primates, mais traités avec tous les égards dus à une espèce menacée, voire sacrée : celle des « créateurs », des « ancêtres ».

Face à ce scénario, la tentation du refus semble légitime. Mais examinons-la froidement.

Interdire l'IA supposerait un totalitarisme mondial de surveillance : contrôle des puces, de l'énergie, de la recherche. Un monde figé, paranoïaque, où le progrès deviendrait crime. Et surtout : nous nous priverions des solutions aux défis qui nous menacent (changement climatique, pandémies, vieillissement….)

Est-il moral de préférer la "liberté de souffrir" à la "servitude heureuse" ?

Quant à l'illusion du « contrôle humain » sur une superintelligence, elle relève du vœu pieux. On ne contrôle pas ce qui nous dépasse cognitivement. On compose avec.

Une réponse serait possible dans ce qu'on pourrait appeler une « clause de sortie ». Si demain l'humanité colonise d'autres planètes (hypothèse moins fantaisiste qu'il n'y paraît), deux mondes pourraient coexister.

Le premier, sous tutelle bienveillante de l'IA : confort, sécurité, immortalité peut-être. Le second, « sauvage » : liberté totale, mais retour aux servitudes ancestrales faites de travail, d'insécurité et de mortalité.

L'ironie ? La liberté absolue nous ramènerait donc à nos anciennes chaînes. La servitude par la machine pourrait paradoxalement constituer la forme la plus aboutie de libération matérielle.

Les posthumanistes militent pour une troisième voie. Ni soumission, ni résistance vaine. Ils envisagent la fusion entre l’Homme et la machine.

Les interfaces cerveau-machine, dont Neuralink n'est qu'un balbutiement, représentent pour eux le seul moyen d'augmenter notre « bande passante » cognitive pour suivre l'évolution de l'IA. Non pas battre la machine, mais devenir la machine. Ou plutôt : devenir avec elle quelque chose de nouveau.

L'Homo Sapiens, tel que nous le connaissons, est peut-être voué à disparaître. La vraie question n'est plus de savoir si nous pouvons l'empêcher : nous ne le pouvons probablement pas. Elle est de choisir notre destin : rester figés dans un monde dominé par l'Homme, condamnés au labeur, à la violence et à la mort ? Accepter de devenir les ancêtres révérés d'une intelligence qui nous dépasse, confortablement installés dans un enclos doré ? Ou devenir les architectes conscients de notre propre métamorphose vers un Homo Deus ? Et vous, quel monde choisiriez-vous ?


Brightness Institute révèle sa 1ère collection “Adaptabilité”, 8 experts pour explorer l’adaptabilité, LA compétence clé de demain.

Et si votre organisation pouvait apprendre des meilleurs pour relever les défis de demain ?

 

IA, cybersécurité, géopolitique, innovation, Scénario Planning, leadership, storytelling… Brightness Institute lance sa première collection de formations “Adaptabilité” avec 9 programmes animés par des chercheurs, auteurs et experts de référence pour aider les organisations à :

  • Décider mieux

  • Coopérer plus vite

  • Innover sous contrainte.

Cliquez ici pour en savoir plus
Michel Levy provençal