Sora 2 transforme la vidéo en menace pour la vérité : attention aux deepfakes
Sora 2 produit des vidéos quasi indiscernables; la confiance dans la vidéo s’effrite.
La deuxième version de Sora génère des deepfakes très convaincants.
Des exemples montrent des vidéos qui inventent dialogues et contextes.
Cela pose un risque direct pour la santé publique et la sécurité de l’information.
Ce qu’il faut savoir
- Le fait : Sora 2 crée des vidéos qui peuvent cloner des personnes et inventer des scènes.
- Qui est concerné : grand public, réseaux sociaux, médias, autorités sanitaires.
- Quand : article RTBF daté 16 octobre 2025 rapporte les tests et observations.
- Où : exemples et discussions sur des réseaux sociaux et plateformes en ligne.
Chiffres clés
- Février 2024 — première version de Sora lancée par Open AI et déjà source d’inquiétude.
- 9 octobre 2025 — article du New York Times cité par RTBF sur l’impact des générateurs vidéo.
Concrètement, pour vous
- Ce qui change : la vidéo n’est plus automatiquement une preuve objective.
- Démarches utiles : vérifier l’origine d’une vidéo, chercher le logo, contrôler la source.
- Risques si vous n’agissez pas : désinformation sanitaire (ex. faux remèdes), atteintes à la réputation.
- Exceptions : poursuites et outils de détection peuvent encore identifier certains faux.
Contexte
RTBF rapporte que Sora 2 brode autour d’un concept initial et invente des dialogues.
Le logo de Sora reste visible sur certains essais, et le faux est « clairement détectable… pour le moment ».
Le New York Times avertit que l’arrivée de Sora et d’autres générateurs vidéo lancés en 2025 par Meta et Google a des implications majeures.
« La société dans son ensemble devra traiter les vidéos avec autant de scepticisme que les gens traitent déjà les mots ». — New York Times, 09/10/2025.
Ce qui reste à préciser
- La fiabilité à long terme des outils de détection face aux prochaines versions.
- Les mesures réglementaires concrètes et leur calendrier pour encadrer ces outils.
Citation
« La société dans son ensemble devra traiter les vidéos avec autant de scepticisme que les gens traitent déjà les mots » — New York Times, 09/10/2025.
Sources

Source d’origine : Voir la publication initiale
Date : 2025-10-16 14:14:00 — Site : www.rtbf.be
Auteur : Cédric Balcon-Hermand — Biographie & projets
Application : Téléchargez Artia13 Actualité (Android)
Notre IA anti-désinformation : Analyzer Fake News (Artia13)
Publié le : 2025-10-16 14:14:00 — Slug : on-a-teste-sora-2-lia-qui-vous-clone-dans-toutes-les-situations-quand-les-deepfakes-sont-au-coeur-dun-reseau-social-rtbf-actus
Hashtags : #testé #Sora #lIA #qui #vous #clone #dans #toutes #les #situations #quand #les #deepfakes #sont #coeur #dun #réseau #social #RTBF #Actus


