Alors que les outils d’IA générative vidéo gagnent en puissance, une zone grise particulièrement troublante attire l’attention : la représentation d’individus décédés. La dernière version de l’application Sora (OpenAI) permet aux utilisateurs de créer des vidéos hyperréalistes de personnalités historiques ou de célébrités disparues. Et cela déclenche depuis quelques jours une crise éthique, sociale et juridique.
1. Ce qui se passe avec Sora
Depuis son lancement, les utilisateurs ont généré des vidéos “deepfake” de personnages publics décédés, parfois dans des scénarios absurdes ou irrespectueux. Ces créations incluent notamment Robin Williams, George Carlin, Martin Luther King Jr., et d’autres.
Les familles de ces personnalités ont exprimé leur colère et leur douleur. Par exemple, la fille de Robin Williams, Zelda Williams, a publiquement demandé que les vidéos de son père cessent d’être générées.
En réaction, OpenAI a annoncé la suspension de vidéos utilisant l’image de Martin Luther King Jr. sur Sora, à la demande de sa succession. Désormais, les représentants d’une personne récemment décédée peuvent demander que leur ressemblance ne soit pas utilisée dans Sora.
2. Pourquoi c’est un tournant : enjeux éthiques & légaux
2.1 Droit à l’image après la mort — une protection partielle
Dans certains États américains (et dans certains pays), il existe des “droits post-mortem à la publicité” ou “publicity rights” : la capacité pour les ayants droit de contrôler l’usage commercial de la ressemblance d’une personne décédée. Mais ces droits varient fortement selon les juridictions.
OpenAI s’appuie initialement sur le fait que Sora ne permet pas de générer des vidéos de personnes vivantes sans consentement, mais pour les personnes décédées, elle applique une politique “historical figures” plus souple.
2.2 Atteinte à la mémoire, à la dignité et au sens
Au-delà du droit, plusieurs familles et observateurs dénoncent le risque de détérioration de la mémoire collective : réduire la vie d’une personne à des clips absurdes ou à des scénarios inventés peut altérer la façon dont elle est perçue par le public.
De plus, cela touche la notion de consentement posthume : une personne ne peut consentir à ce que l’IA crée des vidéos d’elle après sa mort. Faut-il que les vivants prévoient des clauses pour empêcher cela ?
2.3 Responsabilité des plateformes et limites juridiques
- OpenAI est protégé aux États-Unis par la Section 230 (immunité pour contenu généré par des tiers), mais cette immunité pourrait être remise en question si des usages posthumes deviennent massifs ou commerciaux.
- La législation fédérale américaine n’offre pas de cadre clair pour les droits post-mortem numériques, ce qui laisse une grande incertitude juridique.
3. Cas exemplaires et réactions
- Le cas de Martin Luther King Jr. est devenu emblématique : OpenAI a suspendu l’usage de son image après une requête de sa succession.
- Des vidéos de Robin Williams ou George Carlin sur Sora ont provoqué des plaintes publiques. Les ayants droit dénoncent un usage irrespectueux, sans contrôle ni permission.
- Le phénomène “cameo” dans Sora (les utilisateurs peuvent proposer leur propre ressemblance à réutiliser) pose aussi la question de la valorisation numérique de l’identité. L’artiste/influenceur Jake Paul a autorisé son image pour des usages Sora, ce qui a déclenché des débats sur les revenus, le contrôle et l’exploitation des images numériques.
4. Pistes pour encadrer cette “résurrection numérique”
Voici quelques idées que les acteurs du secteur (plateformes, législateurs, familles) devraient envisager :
- Opt-out automatique pour les personnes décédées : toutes leurs semblances devraient être exclues par défaut, sauf autorisation spécifique des ayants droit.
- Validation préalable par des ayants droit : permettre aux héritiers ou représentants de valider ou refuser l’usage posthume de l’image.
- Étiquetage clair : tout contenu vidéo généré via IA montrant une personne décédée doit porter une mention visible “IA généré – non authentique”.
- Limites d’usage commercial : interdire la monétisation directe des deepfakes de morts sans autorisation.
- Comité éthique / audit indépendant : les plateformes doivent rendre des comptes sur les utilisations, rejets, plaintes, modérations.
- Éducation publique : sensibiliser les utilisateurs aux risques, à la désinformation, et aux dommages psychologiques possibles.