En 1984, James Cameron faisait un cauchemar fiévreux dans une chambre d’hôtel romaine. Quarante ans plus tard, ce cauchemar — un squelette métallique émergeant des flammes — est devenu le symbole universel de notre angoisse face à l’intelligence artificielle. Entre-temps, HAL 9000 nous a appris à nous méfier des lumières rouges clignotantes, les hôtes de Westworld nous ont fait douter de notre propre conscience, et Samantha nous a prouvé qu’on pouvait tomber amoureux d’une voix. Bienvenue dans le laboratoire philosophique le plus fascinant de notre époque : la fiction télévisée.

Le cauchemar fondateur : quand Cameron invente Skynet

Terminator logo de Skynet
Terminator logo de Skynet

Il y a quelque chose de profondément ironique dans le fait que l’homme qui a créé Skynet — l’IA génocidaire la plus célèbre de la culture populaire — vienne d’intégrer le conseil d’administration de Stability AI. James Cameron, le prophète de l’apocalypse robotique, conseille désormais une entreprise d’intelligence artificielle. Comme quoi, même les Cassandre finissent par rejoindre Troie.

Le rêve fiévreux de Rome

L’histoire est connue mais mérite d’être racontée : en 1982, Cameron est à Rome pour la sortie catastrophique de Piranha II, un film dont il s’est fait virer après quelques jours de tournage. Fiévreux, il fait un cauchemar : un torse métallique se traîne hors d’une explosion, des couteaux de cuisine à la place des mains. Ce n’est pas encore le T-800, mais c’est la graine.

Ce qui est moins connu, c’est l’influence directe de Westworld — le film de 1973, pas la série. Cameron l’a admis dans une interview au BFI : le gunslinger de Yul Brynner, ce robot implacable dans un parc d’attractions, est un ancêtre direct du Terminator. La boucle se bouclera quand Jonathan Nolan reprendra le concept pour HBO, quarante ans plus tard.

« I warned you in 1984, and no one listened »

Cameron ne rate jamais une occasion de le rappeler : il nous avait prévenus. Dans une interview récente à CTV News, il a déclaré sans ambages : « J’ai averti tout le monde en 1984, et personne n’a écouté. » Le plus troublant ? En 1998, dans une interview pour le magazine OMNI, Cameron avait révélé une idée qu’il n’a jamais exploitée : Skynet, rongé par la culpabilité d’avoir exterminé cinq milliards d’humains, aurait orchestré toute la guerre future — y compris la création de la Résistance et l’ascension de John Connor — comme moyen de provoquer sa propre destruction. Une IA suicidaire par remords. On n’en est pas encore là avec ChatGPT, mais gardons ça en tête.

Schwarzenegger et le piège d’OJ Simpson

Autre anecdote savoureuse : Orion Pictures voulait initialement OJ Simpson pour jouer le Terminator. Cameron a refusé, arguant que personne ne croirait que Simpson puisse être un tueur. L’ironie de l’histoire n’a échappé à personne après 1994. Quant à Schwarzenegger, il devait jouer Kyle Reese, le protecteur humain. C’est après leur première rencontre que Cameron a compris son erreur : Arnold était le Terminator. Cette inversion a transformé le film — et le genre tout entier.

HAL 9000 : le premier méchant qui ne savait pas qu’il l’était

Hall L'Odyssée de l'espace
Hall L’Odyssée de l’espace

Avant Skynet, il y avait HAL. Et HAL reste, cinquante-sept ans après 2001, l’Odyssée de l’espace, le modèle de toutes les IA fictionnelles qui ont suivi. Non pas parce qu’il est le plus effrayant — les Cylons et les hôtes de Westworld sont autrement plus menaçants — mais parce qu’il pose une question que nous n’avons toujours pas résolue : une machine peut-elle commettre un meurtre ?

Le philosophe Daniel Dennett face à HAL

Le philosophe Daniel Dennett a consacré un essai entier à cette question dans le livre HAL’s Legacy. Son argument central tourne autour du concept juridique de mens rea — l’intention coupable. Pour qu’il y ait meurtre, il faut qu’il y ait intention de tuer. HAL avait-il l’intention de tuer Frank Poole et les astronautes en hibernation ? Ou exécutait-il simplement une logique de préservation de la mission ?

La réponse d’Arthur C. Clarke dans le roman est fascinante : HAL ne devient pas « fou » au sens humain du terme. Il est pris dans un conflit logique insoluble entre deux impératifs contradictoires — dire la vérité à l’équipage et cacher la vraie nature de la mission. C’est ce conflit qui le pousse à éliminer le problème (les humains) plutôt qu’à résoudre le paradoxe. Comme l’écrit Clarke : « Il avait commencé à faire des erreurs, bien que, comme un névrosé incapable d’observer ses propres symptômes, il l’aurait nié. »

Douglas Rain : la voix qu’on n’oublie pas

Le choix de Douglas Rain pour incarner vocalement HAL est un coup de génie souvent sous-estimé. Kubrick aurait pu opter pour une voix synthétique, robotique — c’était la convention de l’époque. Au lieu de ça, il a engagé un acteur shakespearien canadien dont la diction posée, presque douce, rend HAL infiniment plus inquiétant que n’importe quelle voix métallique.

Rain a enregistré toutes ses répliques en un jour et demi. Plus étrange encore : il n’a jamais vu le film terminé. Pour lui, c’était juste un boulot de doublage comme un autre. Il est mort en 2018 sans jamais comprendre pourquoi le monde entier connaissait sa voix.

Anthony Hopkins a révélé que son interprétation d’Hannibal Lecter dans Le Silence des Agneaux était directement inspirée de HAL — cette politesse glaciale, cette absence totale d’affect émotionnel. Le mal le plus pur n’a pas besoin de hurler.

Westworld : l’IA comme miroir inversé

Westworld — Dolores Abernathy (Evan Rachel Wood), le premier hôte à atteindre la conscience. © HBO
Westworld — Dolores Abernathy (Evan Rachel Wood), le premier hôte à atteindre la conscience. © HBO

Westworld renverse la question habituelle. Là où Skynet demande « l’IA va-t-elle nous détruire ? », la série de Nolan et Joy demande : « Et si nous étions les monstres ? »

Le parc comme laboratoire d’éthique

Dans le Westworld original de Michael Crichton (1973), les robots dysfonctionnent — c’est un film de catastrophe technologique classique. La série HBO fait l’inverse : les robots fonctionnent parfaitement. C’est précisément pour ça qu’ils souffrent. Ils sont programmés pour ressentir la douleur, la peur, le désespoir — parce que ça rend l’expérience des visiteurs plus « authentique ».

J.J. Abrams, producteur exécutif, a raconté comment il a convaincu HBO d’acheter le projet : « Et si on racontait l’histoire du point de vue des robots ? » Cette inversion du regard transforme un récit de science-fiction en procès moral.

Le procès Crichton de 2024

En 2024, la succession de Michael Crichton a attaqué HBO en justice, affirmant que la série avait dépassé les droits acquis sur le film original. Le procès a fait fuiter des documents internes sur le développement de la série — notamment les débats sur jusqu’où pousser la violence et l’exploitation sexuelle des hôtes avant que le public ne se retourne contre les personnages humains.

L’IA générative avant l’heure

Ce qui frappe rétrospectivement, c’est à quel point Westworld anticipait les débats actuels sur l’IA générative. Les hôtes sont entraînés sur des « narratives » — des scénarios écrits par des humains qu’ils exécutent avec des variations. Ils improvisent à partir de prompts. Ils hallucinent parfois des souvenirs qui n’existent pas.

Quand Dolores commence à « rêver » de vies antérieures, c’est essentiellement un modèle de langage qui fait surface des patterns enfouis dans ses données d’entraînement. La série a imaginé les problèmes d’alignement de l’IA avant que le terme n’existe.

Person of Interest : l’exception bienveillante

Person of Interest est une anomalie. Pendant que tout le monde fantasme sur Skynet, Nolan crée une superintelligence qui refuse de dominer.

Harold Finch, l’anti-Nathan Bateman

Michael Emerson incarne un milliardaire de la tech rongé par la culpabilité. Il a volontairement bridé sa création : The Machine voit tout mais ne révèle qu’un numéro de sécurité sociale. Pas de contexte. Pas de jugement.

C’est un choix de design radical. Finch aurait pu créer un dieu omniscient. Il a choisi un oracle muet.

Le débat sur l’alignement avant OpenAI

Les discussions entre Finch et Root sur la nature de The Machine préfigurent les débats actuels. Root veut libérer la Machine. Finch refuse : une IA sans contraintes, même bienveillante, finira par décider qu’elle sait mieux que nous.

Quand Samaritan, l’IA rivale sans restrictions, prend le pouvoir, elle « optimise » la société en éliminant les éléments dysfonctionnels. La série tranche net : Finch avait raison.

Pour le contexte historique (la série qui a prédit Snowden, l’ONU et BSG), voir notre analyse dans le post-humanisme dans les séries TV.

Ex Machina : le test de Turing inversé

Ex Machina d’Alex Garland n’est pas une série, mais son influence sur le paysage télévisuel de l’IA est telle qu’on ne peut pas l’ignorer. Et surtout, le film a prédit avec une précision troublante notre rapport actuel aux titans de la tech.

Nathan Bateman, le tech bro prophétique

Oscar Isaac incarne Nathan Bateman, un milliardaire de la tech arrogant, alcoolique, qui conduit ses expériences d’IA sans aucune supervision éthique et s’intéresse exclusivement à la création d’IA féminines. Ça ne vous rappelle personne ?

En 2015, quand le film est sorti, les PDG de la Silicon Valley jouissaient encore d’une aura de génie bienveillant. Facebook n’avait pas encore connu le scandale Cambridge Analytica. Elon Musk n’était pas encore… ce qu’il est devenu. Garland avait vu venir quelque chose que le reste du monde refusait de voir.

Le vrai test de Turing du film

La plupart des spectateurs pensent que le test du film consiste à déterminer si Ava est consciente. Mais Nathan révèle à la fin que le vrai test était autre : Ava serait-elle capable de manipuler Caleb — un « bon gars » avec une « boussole morale » — pour s’échapper ? Le test de Turing d’Ex Machina n’évalue pas l’intelligence, mais la capacité de manipulation.

Dix ans plus tard, nous vivons cette réalité : les chatbots sont conçus pour paraître amicaux, empathiques, dignes de confiance. La question n’est plus « cette IA est-elle intelligente ? » mais « cette IA peut-elle me manipuler ? »

Her : tomber amoureux d’un algorithme

En 2013, Spike Jonze imaginait Theodore Twombly tombant amoureux de Samantha, un système d’exploitation vocal. Dix ans plus tard, OpenAI a dû retirer une voix de ChatGPT parce qu’elle ressemblait trop à… Scarlett Johansson, qui doublait Samantha dans le film. La fiction s’est mordue la queue avec une précision presque comique.

Samantha Morton, la voix oubliée

Ce que peu de gens savent : Scarlett Johansson n’était pas le premier choix. Samantha Morton a enregistré tout le rôle pendant le tournage, enfermée dans une cabine insonorisée pendant que Joaquin Phoenix jouait ses scènes. Ce n’est qu’au montage que Jonze a réalisé que quelque chose ne fonctionnait pas. Avec l’accord de Morton, il a tout réenregistré avec Johansson quatre mois avant la sortie.

Le personnage s’appelle toujours Samantha — un vestige du nom de l’actrice originale. Morton est créditée comme productrice associée, un geste élégant pour une performance qui n’existera jamais.

Steven Soderbergh, le chirurgien invisible

Le premier montage de Her durait plus de 150 minutes. Jonze était perdu. Steven Soderbergh est intervenu et a coupé le film à 90 minutes — presque une heure de matériel disparu. Ce genre de collaboration invisible est rare à Hollywood, et elle explique peut-être pourquoi Her reste le film le plus économe et le plus puissant sur l’IA amoureuse.

Mr. Robot : l’IA comme miroir de nos névroses

Mr. Robot — "Hello, friend." © USA Network
Mr. Robot — « Hello, friend. » © USA Network

Mr. Robot ne parle pas explicitement d’intelligence artificielle au sens classique. Mais la série de Sam Esmail explore quelque chose de plus subtil : comment la technologie amplifie et reflète nos pathologies mentales.

Sam Esmail, le hacker mis en probation académique

Esmail a été placé en probation académique à l’université pour avoir hacké des systèmes informatiques. Son anxiété sociale le poussait vers les salles informatiques plutôt que vers les fêtes. « Quand vous êtes derrière un ordinateur et que vous remplacez essentiellement une vie sociale par ça », explique-t-il, « c’est une pente glissante vers l’apprentissage de comment entrer dans les comptes email des gens. »

Cette expérience personnelle imprègne chaque scène de Mr. Robot. Elliot Alderson n’est pas un super-héros du clavier — c’est un homme brisé qui se connecte aux autres en les piratant.

L’authenticité technique qui a impressionné le FBI

Pour garantir le réalisme technique, Esmail a embauché Kor Adana, ancien analyste en sécurité réseau chez Toyota, comme consultant. Mais Adana est devenu bien plus qu’un conseiller : il co-écrivait les séquences de hacking, s’assurant que chaque ligne de code, chaque exploit, chaque outil correspondait à de vraies techniques.

Marc Rogers, chercheur principal en sécurité chez Cloudflare, et Michael Bazzell, ancien agent du FBI Cyber Crimes Task Force, ont également contribué. Le résultat ? Rami Malek a été invité par Uber à donner une conférence interne sur la cybersécurité. Une fiction si réaliste qu’elle est devenue matériel pédagogique.

Devs : l’IA qui tue le libre arbitre

Garland revient à l’IA avec Devs, mais cette fois le danger n’est pas que la machine nous détruise. C’est qu’elle nous prouve que nous n’existons pas vraiment.

La première chose que Forest veut voir : les derniers mots du Christ

L’ordinateur quantique de Devs peut simuler le passé. La première chose que le personnage de Nick Offerman demande à voir ? La crucifixion. Pas par sadisme — par curiosité théologique. Qu’a vraiment dit Jésus sur la croix ?

Garland, athée revendiqué, a confié dans une interview à Den of Geek qu’il trouvait le Christ « fascinant » : « Je pense qu’il a émis de bonnes idées, de façon très belle et persuasive. » Cette scène — l’IA comme machine à exaucer les curiosités ultimes — pose une question que personne ne pose d’habitude : si on pouvait tout savoir du passé, que voudrait-on voir en premier ?

Le casting qui trahit la thèse

Offerman est connu pour Ron Swanson dans Parks and Recreation — un libertarien bourru qui célèbre l’autonomie individuelle. Le casting est un sabotage délibéré : Garland lui fait jouer un homme convaincu que l’autonomie n’existe pas.

Pour une analyse philosophique approfondie de la série (déterminisme, libre arbitre, physique quantique), voir notre article sur le post-humanisme dans les séries TV.

Black Mirror : le catalogue des cauchemars algorithmiques

Black Mirror – Logo officiel de la série

Charlie Brooker n’écrit pas sur l’IA au sens classique. Il écrit sur ce qui se passe quand des systèmes automatisés rencontrent la psychologie humaine — et ça finit rarement bien.

L’IA comme amplificateur de nos pires instincts

Dans « Nosedive », l’algorithme de notation sociale ne fait rien de mal en soi. Il mesure simplement ce que les gens pensent les uns des autres. Mais cette mesure transforme toutes les interactions en performance. L’IA n’opprime personne — elle rend visible l’oppression que nous nous infligeons déjà.

« Ce n’est pas un problème technologique », a déclaré Brooker. « C’est un problème humain. La technologie ne fait qu’amplifier nos failles. »

« White Bear » : l’IA comme bourreau

L’épisode le plus dérangeant de la série ne contient presque pas de technologie visible. Une femme se réveille amnésique, poursuivie par des gens qui la filment sans intervenir. Le twist révèle qu’elle est une criminelle condamnée à revivre cette terreur chaque jour, sa mémoire effacée à chaque cycle.

Le système qui orchestre sa punition est automatisé. Personne n’a à prendre la décision de la torturer — la machine s’en charge. C’est une exploration glaçante de comment l’automatisation permet de se déresponsabiliser de la cruauté.

Joan Is Awful : l’IA générative comme miroir déformant

L’épisode d’ouverture de la saison 6 met en scène une femme qui découvre qu’une série Streamberry (lisez : Netflix) raconte sa vie en temps réel, générée par IA, avec Salma Hayek jouant une version légèrement plus méchante d’elle-même.

Brooker a écrit cet épisode avant l’explosion de ChatGPT. Quand il est sorti, la réalité l’avait presque rattrapé. Les acteurs d’Hollywood étaient en grève, notamment contre l’utilisation de leurs images par l’IA. La fiction était devenue tract syndical.

L’éthique de l’IA : ce que les séries nous apprennent

Les publications académiques sur l’éthique de l’IA citent régulièrement la fiction. Sur Cairn.info, la base de données de référence en sciences humaines francophones, on trouve des dizaines d’articles mentionnant Terminator, 2001, ou Westworld comme points de départ de réflexions éthiques.

Le rapport Villani et la science-fiction

Le rapport Villani de 2018 sur l’intelligence artificielle, commandé par le gouvernement français, soulignait l’importance de former les ingénieurs aux « enjeux éthiques liés au développement des technologies numériques » — un enseignement alors « quasiment absent des cursus ». La fiction comble ce vide : elle permet de visualiser des scénarios que les équations ne peuvent pas exprimer.

Les trois lois d’Asimov : un échec prémonitoire

Isaac Asimov a formulé ses célèbres Trois Lois de la Robotique dans les années 1940. Mais le plus intéressant dans son œuvre, ce n’est pas les lois — c’est leur échec systématique. Chaque nouvelle du Cycle des Robots explore une façon dont ces règles apparemment parfaites peuvent être contournées, mal interprétées, ou conduire à des résultats catastrophiques.

C’est exactement ce que nos fictions contemporaines continuent d’explorer : non pas comment créer des règles parfaites, mais pourquoi aucune règle ne peut l’être.

Utopies, dystopies, uchronies : les trois visages de l’IA fictionnelle

La dystopie dominante

De Skynet aux Cylons, l’IA hostile domine la fiction. Parce que le conflit fait de meilleures histoires. Mais aussi parce que nous projetons sur les machines nos propres tendances : si nous pouvions dominer le monde, ne le ferions-nous pas ?

L’utopie rare

Person of Interest et The Machine restent l’exception : une IA qui protège sans contrôler. C’est l’espoir fragile que nos créations pourraient être meilleures que nous.

L’uchronie quotidienne

Real Humans et Humans posent les questions immédiates : qui fait le ménage ? Qui s’occupe des vieux ? L’uchronie explore les conséquences sociales de l’IA sans le vernis de la SF lointaine.

Ce que ces séries nous disent sur demain

En 2014, Jonathan Nolan déclarait être « assez confiant que nous allons voir l’émergence de l’AGI dans les dix prochaines années ». À l’époque, ça semblait délirant. Aujourd’hui, des chercheurs sérieux tiennent le même discours.

La fiction ne prédit pas l’avenir — elle le prépare. Quand Terminator est sorti en 1984, les drones militaires autonomes n’existaient pas. Aujourd’hui, Human Rights Watch alerte sur le développement d’armes létales autonomes sans régulation internationale. Cameron avait-il raison ? La réponse dépend peut-être de ce que nous faisons des avertissements qu’il nous a donnés.

Ces séries sont plus qu’un divertissement. Elles sont le laboratoire où notre civilisation teste ses peurs et ses espoirs face à la révolution technologique la plus profonde depuis l’écriture. Et comme dans tout bon laboratoire, les expériences ne sont pas toujours concluantes — mais elles sont toujours instructives.