top of page

Parler aux morts avec l’IA : entre réconfort et malaise, où tracer la ligne?

  • Photo du rédacteur: Seb
    Seb
  • il y a 2 jours
  • 4 min de lecture

T’as déjà perdu quelqu’un de proche? Si oui, t’as sûrement eu envie, même juste une fois, de pouvoir lui reparler. De lui dire une dernière affaire. Ou juste d’entendre sa voix.

En 2025, grâce à l’intelligence artificielle, ce genre de souhait devient de plus en plus possible. Mais attention — ce qui semblait sortir d’un épisode de Black Mirror devient maintenant une réalité troublante, et pas mal controversée.


Qu’est-ce qu’un « deadbot »?

Un deadbot, c’est un avatar numérique créé à partir des données laissées par une personne décédée. L’IA analyse ses messages texte, ses publications sur les réseaux, ses vidéos, ses enregistrements vocaux — et recrée une version « interactive » du défunt.

Il y a plusieurs variantes :

  • Textuels : comme Project December, où tu dialogues par écrit avec une simulation de la personne.

  • Multimédia : comme HerAfter ou StoryFile, qui utilisent des vidéos enregistrées du vivant.

  • Vocaux : comme dans le cas qu’on va voir, où la voix du défunt est clonée pour qu’on puisse entendre de « nouveaux » messages de sa part.

Ces outils s’appuient sur des technologies de plus en plus puissantes comme le NLP (traitement du langage naturel), le clonage vocal, la synthèse vidéo et même l’apprentissage profond (deep learning).


Le cas de Christopher Pelkey : une première mondiale en cour

OK, on rentre dans le vif du sujet. Voici ce qui s’est passé en Arizona en mai 2025.

Christopher Pelkey, un jeune homme de 27 ans, a été tué par balle en 2021 dans un incident tragique. Son assassin, Ricardo Avitia, a finalement été condamné. Mais lors de la dernière audience avant le prononcé de la sentence, quelque chose d’inhabituel s’est produit.

Sa mère, Jill Pelkey, a collaboré avec une startup spécialisée en IA pour créer une voix synthétique de son fils décédé. L’enregistrement — généré par l’IA à partir d’archives vocales de Christopher — a servi à livrer une déclaration d’impact de la victime, une pratique courante dans le système judiciaire américain, sauf que cette fois… c’est la « voix » de la victime elle-même qui s’est exprimée.

La déclaration disait des phrases comme :

« Je ne pourrai jamais me marier. Je ne connaîtrai jamais la joie d’être père. Tout ça, tu me l’as volé. »

Ces mots ont été générés à l’aide d’un script validé par la famille, mais dits par une réplique vocale de Christopher. La salle de cour est restée figée. Plusieurs ont pleuré. D’autres ont froncé les sourcils.


Réconfort ou manipulation?

Le moment a été qualifié d’historique par certains, d’inquiétant par d’autres. C’est là qu’on touche au cœur du débat.

Les aspects positifs? Pour Jill Pelkey, cette expérience a été thérapeutique. Elle dit que ça lui a permis d’honorer la mémoire de son fils et de lui redonner une voix dans un moment crucial. Et on peut comprendre — c’est une façon symbolique de clore un chapitre douloureux.


Mais y’a un hic. Ce n’était pas Christopher qui parlait. C’était une version calculée, scriptée, synthétique. Même si les mots venaient de sa mère, et que l’intention était sincère, est-ce qu’on peut vraiment dire que c’était lui?

Plusieurs juristes, psychologues et éthiciens s’interrogent : est-ce qu’on manipule les émotions du tribunal? Est-ce qu’on instrumentalise la mort pour provoquer une réaction? Et surtout… est-ce qu’on risque d’ouvrir la porte à des utilisations encore plus douteuses?


Qui décide de la mémoire numérique?

Le phénomène des deadbots repose sur une réalité délicate : la mémoire est malléable. L’avatar qu’on crée ne sera jamais l’être humain exact, avec ses contradictions, ses silences, ses émotions imprévisibles.

Pis là, un paquet de questions légales débarquent :

  • Est-ce que la personne décédée a consenti à être « recréée »?

  • Qui a les droits sur cette simulation?

  • Peut-on empêcher quelqu’un de ramener un proche à la vie numérique sans l’accord des autres membres de la famille?

Imagine qu’un jour, ton avatar IA est utilisé contre ta volonté. Ou qu’un membre de ta famille recrée un proche décédé pour des raisons personnelles, commerciales ou judiciaires. Ça fait réfléchir.


Un avenir flou, mais fascinant

Les deadbots vont continuer d’évoluer. Déjà, en Chine et en Corée du Sud, certaines familles paient des milliers de dollars pour revoir un parent disparu, dans un environnement VR. L’IA parle, bouge, répond — et les enfants pleurent dans les bras d’un fantôme digital.

Est-ce que c’est de l’amour? Est-ce que c’est malsain? Peut-être un peu des deux.

Mais une chose est sûre : l’IA est en train de redéfinir notre rapport à la mort, au deuil, et même à la justice.


L’histoire de Christopher Pelkey nous montre à quel point la frontière entre technologie, émotion et éthique devient floue. Parler à un défunt, ça peut être beau… mais aussi dérangeant.

Est-ce qu’on honore la mémoire des morts ou est-ce qu’on les emprisonne dans des scripts? Est-ce qu’on guérit notre deuil ou est-ce qu’on refuse de le vivre?

Une chose est certaine : l’IA nous force à repenser ce qu’on croyait immuable — la mort comprise.

Sébastien Jacques assisté de l’I.A.

Comments


bottom of page