John Cena n’annonce pas de combat contre Martin Bakole : Il s’agit d’un deepfake
Une vidéo récemment largement diffusée sur les réseaux sociaux prétend montrer John Cena, célèbre catcheur américain, parlant en lingala et annonçant un combat contre le boxeur congolais Martin Bakole. Cependant, il s’agit d’un contenu généré par intelligence artificielle, et non d’une déclaration authentique.
Une vidéo virale sans fondement
Diffusée sur Facebook, cette vidéo a suscité de nombreuses réactions parmi les internautes, certains prenant ces affirmations pour des annonces officielles d’un combat à venir. En réalité, ce clip est un deepfake, dans lequel la technologie IA modélise un visage pour créer une fausse déclaration.
Absence de confirmation officielle
Aucune des parties concernées, notamment la WWE, John Cena sur ses réseaux sociaux, ou Martin Bakole, n’a confirmé l’existence d’un tel match. De plus, les grandes publications sportives n’ont pas couvert cet événement fictif, ce qui aurait été le cas si c’était véridique.
Identification des éléments du deepfake
Plusieurs indices permettent d’identifier ce type de contenu généré par IA :
- La synchronisation des mouvements des lèvres de John Cena avec la voix en lingala montre un décalage suspect.
- L’éclairage sur son visage est uniforme, sans variations naturelles, renforçant l’impression d’une animation artificielle.
- Un flou autour de sa bouche est observé lors de certaines transitions, un défaut commun aux vidéos produites par IA.
En ce qui concerne l’audio, l’absence d’écho et de bruit ambiant laisse supposer que la voix a été enregistrée dans un environnement stérile, trahissant son origine synthétique.
La séquence originelle dévoilée
Il est établi que la vidéo deepfake utilise une séquence authentique provenant d’une présentation du film « Jackpot », réalisé par Paul Feig et prévu pour une sortie le 15 août 2025. Cela a été confirmé par des sources fiables comme Prime Video.
Dans cette séquence, John Cena ne parle pas en lingala. Il explique plutôt le film, sans mentionner Martin Bakole.

Les dangers des deepfakes dans la désinformation
La prolifération de vidéos truquées par IA sur les réseaux sociaux est une préoccupation croissante. Des outils comme Veo3 AI, HeyGen et Synthesia facilitent la création de contenu qui peut être à la fois humoristique et trompeur.
Des personnalités comme John Cena sont souvent utilisées dans ces vidéos, illustrant les enjeux amusants mais aussi manipulateurs que ces technologies peuvent engendrer.
Vigilance nécessaire face à la désinformation
La vidéo de John Cena parlant en lingala et annonçant un combat contre Martin Bakole n’est donc pas authentique. Elle souligne l’importance d’une vérification préalable des informations, surtout lorsque celles-ci semblent spectaculaires.
« L’IA peut imiter la réalité avec un réalisme troublant, mais des signes révélateurs permettent de démasquer ces falsifications. »
Analyse : La vigilance est cruciale à une époque où la technologie peut créer des contenus convaincants mais mensongers, ce qui pourrait avoir des conséquences sur la réputation et l’image des individus concernés.
Date de publication : 2025-07-21 00:14:00
Auteur : Cédric Balcon-Hermand – Consulter sa biographie, ses projets et son travail. Cet article a été vérifié, recoupé, reformulé et enrichi selon la ligne éditoriale Artia13, sans reprise d’éléments protégés.
Application officielle :
Téléchargez Artia13 Actualité sur Google Play
Retrouvez également tous nos contenus sur artia13.city
Notre IA contre la désinformation :
Analyzer Fake News – GPT spécialisé conçu par Artia13
Article rédigé, reformulé et vérifié par Cédric Balcon-Hermand selon la ligne éditoriale de l’Association Artia13 : lutte contre la désinformation, respect du droit d’auteur, éthique de l’information et autonomie intellectuelle.