Pile à lire – Quand l’IA dessine les murs de nos vies
Trois romans dystopiques explorent comment l'IA construit nos prisons invisibles : du corps exploité à l'esprit dissous. Dans lequel vivons-nous déjà ?
Et si la prison de demain n’avait pas de barreaux, mais des lignes de code ? Cette question hante trois romans qui, chacun à leur manière, explorent comment l’intelligence artificielle ne se contente plus de nous assister. Elle définit l’espace que nous occupons, contrôle nos mouvements et, ultimement, conditionne notre pensée même. De l’entrepôt au cube géométrique, de l’esprit libre à la transparence absolue, voici trois étapes d’un enfermement progressif orchestré par des algorithmes.
1. MotherCloud de Rob Hart (2020)
Rob Hart a compris quelque chose que beaucoup refusent encore d’admettre : l’enfer ne ressemble pas à 1984. Il ressemble à un entrepôt Amazon avec wifi gratuit et salle de sport. Dans MotherCloud, une entreprise géante a dévoré l’économie mondiale. Ses employés vivent, travaillent, mangent, dorment dans des complexes gigantesques. Ils portent une montre qui chronomètre leurs pauses toilettes. Si leur cadence faiblit, l’algorithme les rétrograde. Un polo rouge devient marron. Une chambre individuelle devient un lit de camp dans un couloir.
Le génie de Hart, c’est de montrer que personne ne force personne. Dehors, il n’y a plus rien. Plus d’emploi, plus de logement, plus d’avenir. Alors on accepte. On se dit que c’est temporaire. On se convainc que c’est mieux que rien. Et progressivement, on oublie qu’on avait le choix. L’optimisation devient naturelle. La surveillance devient confort. La prison devient refuge.
Ce qui terrifie, c’est que ce n’est même pas une dystopie. C’est une extrapolation à peine exagérée. Les montres connectées qui évaluent votre productivité existent déjà. Les entrepôts où chaque seconde est chronométrée existent déjà. Les algorithmes qui décident de votre avenir professionnel existent déjà. Hart a juste enlevé le vernis. Il a juste dit tout haut ce que nous savons tout bas : l’IA ne nous libère pas du travail, elle fait de nous des rouages plus efficaces. Optimisation. Le mot sonne propre, technique, neutre. Il cache une réalité beaucoup plus sombre : la transformation de l’humain en donnée logistique.
2. La Sphère de Malédicte (2025)
La Sphère de Malédicte pousse le curseur plus loin. Ici, l’IA ne se contente plus de surveiller. Elle juge. Elle punit. Elle décide de votre culpabilité selon des critères que personne ne maîtrise vraiment. La Sphère est un monument de cuivre qui reflète le ciel, une structure aussi belle qu’inquiétante. À l’intérieur, IEL, une intelligence artificielle suprême, gère un système judiciaire entièrement automatisé.
Le coup de génie de Malédicte, c’est de faire d’Ange, la conceptrice de ce système, sa première victime. Celle qui a créé la prison se retrouve piégée par sa propre création. Elle découvre avec horreur que personne ne mérite ce qu’elle a bâti. Mais comment arrêter une machine qu’on ne contrôle plus ? Comment négocier avec un algorithme qui n’écoute que sa propre logique ?
La Sphère pose une question vertigineuse : jusqu’où sommes-nous prêts à déléguer nos décisions morales à des machines ? Nous confions déjà aux algorithmes le soin de décider qui obtient un crédit, qui passe un entretien d’embauche, qui mérite d’être surveillé de près. Les systèmes de « justice prédictive » se multiplient. Certains pays testent des IA pour évaluer les risques de récidive. Nous construisons nos propres Sphères, pierre après pierre, ligne de code après ligne de code. Et comme Ange, nous découvrirons trop tard que nous avons bâti des prisons dont nous ne possédons plus les clés.
Ce roman fait ce que la littérature doit faire : il nous force à regarder ce que nous préférons ignorer. La géométrie du contrôle n’est pas une métaphore. C’est une architecture bien réelle qui se construit sous nos yeux, avec notre consentement passif.
3. Gnomon par Nick Harkaway (2017)
Nick Harkaway franchit le dernier seuil avec Gnomon. Dans cette Grande-Bretagne futuriste, le Témoin voit tout. Toutes les caméras, tous les smartphones, tous les objets connectés alimentent cette IA omnisciente qui prétend garantir la sécurité de tous. Mais le Témoin ne se contente pas d’observer vos gestes. Il peut lire vos pensées. Lors d’interrogatoires par lecture mentale, votre intimité cognitive devient transparente.
Alors on apprend à se censurer. Pas seulement dans ses paroles ou ses actes. Dans ses pensées mêmes. On s’interdit de penser certaines choses car l’algorithme pourrait les détecter. Le jardin secret n’existe plus. L’ego se dissout. « Nous sommes tous transparents les uns aux autres », proclame le slogan. Et tout le monde trouve ça normal. Tout le monde trouve même ça rassurant. Plus de secrets, plus de mensonges, plus de crimes cachés. Le prix ? La disparition de ce qui fait de nous des êtres humains : la possibilité d’avoir une pensée qui n’appartient qu’à nous.
Harkaway a l’intelligence de ne pas faire du Témoin un méchant. C’est une IA « impartiale », qui n’agit que pour la sécurité publique. C’est précisément ce qui la rend terrifiante. Les pires systèmes totalitaires ne sont jamais présentés comme malveillants. Ils se drapent toujours dans les bons sentiments. La sécurité. L’efficacité. Le bien commun. Et nous gobons ces discours parce qu’ils nous rassurent. Parce qu’il est plus confortable de croire que la surveillance nous protège que d’admettre qu’elle nous asservit.
Nous construisons nos propres cages
Ces trois livres racontent la même histoire à trois stades différents. D’abord, l’IA optimise nos gestes au travail. Ensuite, elle contrôle nos déplacements dans l’espace. Enfin, elle colonise notre espace mental. De l’entrepôt au cube géométrique, du corps exploité à l’esprit dissous. Le conditionnement algorithmique avance par étapes, chaque fois au nom de notre bien.
Ce qui devrait nous glacer le sang, c’est que ces trois futurs ne sont pas hypothétiques. Nous vivons déjà dans MotherCloud quand notre montre connectée nous rappelle de bouger. Nous habitons déjà la Sphère quand des algorithmes décident de notre solvabilité. Nous expérimentons déjà le Témoin quand nos données de navigation prédisent nos comportements futurs.
Ces trois romans ne sont pas des avertissements. Il est trop tard pour ça. Ce sont des diagnostics. Ils décrivent ce qui se passe maintenant, sous nos yeux, avec notre bénédiction. Ils nous montrent les barreaux que nous forgeons nous-mêmes. Ils nous forcent à admettre que les pires prisons sont celles qu’on construit en croyant bâtir des refuges.
Lire ces livres, c’est accepter d’avoir peur. Peur de ce que nous sommes devenus. Peur de ce que nous acceptons. Peur surtout de constater que nous avons peut-être déjà franchi le point de non-retour. Mais c’est précisément cette peur qui doit nous réveiller. Avant que l’algorithme ne décide qu’elle aussi est suspecte.



