Logo
Deepfake et usurpation d’identité : quels recours juridiques pour les victimes ?
Criminal LawMay 15, 2026

Deepfake et usurpation d’identité : quels recours juridiques pour les victimes ?

L’essor de l’intelligence artificielle générative a profondément transformé les risques liés à l’image, à la voix et à l’identité numérique. Les technologies dites de deepfake permettent désormais de créer des contenus audiovisuels artificiels d’un réalisme particulièrement élevé, capables de tromper le public ou de porter atteinte aux droits fondamentaux des personnes.

Au-delà des enjeux technologiques, ces pratiques soulèvent d’importantes questions juridiques : responsabilité civile, infractions pénales, protection de la vie privée, droit à l’image, diffamation ou encore fraude numérique.

Dans quelles hypothèses un deepfake devient-il illicite ? Quels fondements juridiques permettent aux victimes d’agir ? Quels recours peuvent être engagés ?

I. Le deepfake : une technologie au croisement du droit pénal et du droit de la personnalité

Le terme deepfake désigne un contenu généré ou modifié à l’aide d’algorithmes d’intelligence artificielle visant à reproduire artificiellement :

  • le visage d’une personne,

  • sa voix,

  • ses expressions,

  • ou son comportement.

Si la technologie n’est pas illégale en elle-même, son utilisation peut devenir illicite lorsqu’elle porte atteinte aux droits d’autrui.

En pratique, plusieurs qualifications juridiques peuvent être retenues selon :

  • l’intention de l’auteur,

  • la nature du contenu diffusé,

  • le préjudice causé,

  • et le contexte de diffusion.

II. L’usurpation d’identité numérique : une infraction pénale

L’utilisation frauduleuse de l’identité d’une personne à travers un deepfake peut constituer une usurpation d’identité.

Cette infraction est généralement caractérisée lorsqu’une personne :

  • utilise l’identité d’un tiers,

  • reproduit sa voix ou son image,

  • ou crée un contenu destiné à faire croire qu’il émane de la victime.

L’objectif peut être :

  • de tromper des tiers,

  • de nuire à la réputation de la victime,

  • de commettre une fraude,

  • ou d’obtenir un avantage financier.

Dans le cadre professionnel, les deepfakes vocaux sont de plus en plus utilisés dans des fraudes au faux dirigeant, consistant à imiter artificiellement la voix d’un responsable d’entreprise afin d’ordonner des virements ou d’obtenir des informations confidentielles.

III. Les atteintes aux droits de la personnalité

1. L’atteinte au droit à l’image

Le droit à l’image protège toute personne contre l’utilisation ou la diffusion de son image sans son consentement.

La diffusion d’un deepfake utilisant le visage d’une personne sans autorisation peut engager la responsabilité civile de son auteur, notamment lorsque :

  • le contenu porte atteinte à la dignité,

  • crée une confusion,

  • ou nuit à la réputation de la victime.

Le consentement constitue ici un élément central.

2. L’atteinte à la vie privée

Lorsqu’un contenu artificiel porte atteinte à l’intimité ou à la sphère personnelle d’un individu, la victime peut invoquer une atteinte à la vie privée.

Cela concerne notamment :

  • les montages à caractère intime,

  • les faux contenus compromettants,

  • ou les diffusions visant à humilier publiquement une personne.

Les juridictions accordent une importance particulière au préjudice moral résultant de ces atteintes numériques.

3. Diffamation et injure

Un deepfake peut également constituer :

  • une diffamation, lorsqu’il impute faussement un fait précis à une personne ;

  • une injure, lorsqu’il contient des propos outrageants ou dégradants.

La viralité des réseaux sociaux aggrave souvent le préjudice subi, notamment en raison de la rapidité de diffusion et de la difficulté à supprimer intégralement les contenus.

IV. La responsabilité civile et pénale des auteurs

1. Responsabilité pénale

Selon les circonstances, plusieurs infractions pénales peuvent être retenues :

  • usurpation d’identité,

  • escroquerie,

  • faux et usage de faux,

  • cyberharcèlement,

  • atteinte à la vie privée,

  • diffusion de contenus illicites,

  • extorsion ou chantage numérique.

Lorsque les faits sont commis en bande organisée ou à des fins financières, les sanctions peuvent être aggravées.

2. Responsabilité civile

Indépendamment des poursuites pénales, la victime peut engager une action civile afin d’obtenir réparation du préjudice subi.

Les dommages indemnisables peuvent inclure :

  • le préjudice moral,

  • l’atteinte à la réputation,

  • les pertes économiques,

  • le préjudice professionnel,

  • ou encore le trouble psychologique.

V. Les obligations des plateformes numériques

Les plateformes hébergeant des contenus générés par les utilisateurs peuvent voir leur responsabilité engagée lorsqu’elles ne retirent pas promptement un contenu manifestement illicite après signalement.

Les victimes disposent généralement de plusieurs moyens d’action :

  • signalement du contenu,

  • demande de suppression,

  • demande de déréférencement,

  • notification juridique formelle,

  • procédure d’urgence devant le juge.

La rapidité d’intervention constitue souvent un enjeu déterminant afin de limiter la propagation du contenu litigieux.

VI. L’importance de la preuve numérique

En matière de deepfake, la conservation des preuves est essentielle.

Il est recommandé de conserver :

  • captures d’écran,

  • URL,

  • horodatages,

  • échanges électroniques,

  • copies vidéo ou audio,

  • identifiants des comptes concernés.

Le recours à un constat par commissaire de justice permet de renforcer considérablement la valeur probatoire des éléments collectés.

Dans certains dossiers, une expertise technique peut également être nécessaire afin de démontrer le caractère artificiel du contenu.

VII. Vers un encadrement renforcé de l’intelligence artificielle

Les législations nationales et européennes tendent actuellement à renforcer l’encadrement des technologies d’intelligence artificielle.

Les nouvelles réglementations imposent progressivement :

  • des obligations de transparence,

  • l’identification des contenus générés artificiellement,

  • des mécanismes de gestion des risques,

  • et des obligations renforcées pour certains systèmes d’IA à haut risque.

Cette évolution traduit une volonté croissante de protéger :

  • les droits fondamentaux,

  • la sécurité numérique,

  • et l’intégrité de l’information.

Conclusion

Les deepfakes illustrent l’émergence de nouvelles formes d’atteintes numériques où l’intelligence artificielle peut être utilisée comme un outil de fraude, de manipulation ou de déstabilisation. En reproduisant artificiellement l’image, la voix ou l’identité d’une personne, ces technologies soulèvent des enjeux juridiques majeurs touchant à la protection de la vie privée, au droit à l’image, à la réputation et à la sécurité des échanges numériques.

Contrairement à une idée répandue, les victimes ne sont pas dépourvues de protection juridique. Selon les circonstances, plusieurs mécanismes peuvent être mobilisés sur le fondement du droit pénal, du droit civil ou du droit du numérique afin d’obtenir :

  • la suppression des contenus litigieux,

  • l’identification des auteurs,

  • la cessation du trouble,

  • ainsi que la réparation intégrale du préjudice subi.

Dans un environnement numérique marqué par la rapidité de diffusion et la viralité des contenus, la réactivité constitue toutefois un élément déterminant. La conservation immédiate des preuves, l’intervention d’un professionnel du droit et l’engagement rapide des procédures adaptées permettent souvent de limiter considérablement les conséquences juridiques, professionnelles et réputationnelles de ces atteintes.

L’encadrement juridique de l’intelligence artificielle est appelé à se renforcer dans les prochaines années. Néanmoins, les contentieux liés aux deepfakes démontrent déjà que les principes fondamentaux du droit — protection de la personne, responsabilité et réparation — demeurent pleinement applicables aux nouvelles technologies.