Grok, l’intelligence artificielle (IA) développée par Elon Musk, a diffusé de fausses informations sur l’attentat de Sydney, en suggérant par exemple qu’une victime n’en était pas une ou en identifiant mal un témoin ayant désarmé l’un des assaillants, ont constaté mardi l’AFP et des experts.
Les assistants virtuels comme Grok, appelés « chatbots », fournissent en temps réel des réponses aux utilisateurs demandant des détails ou des éléments de contexte sur des informations et des images, les géants de la tech ayant par ailleurs largement réduit leurs effectifs dédiés à la vérification des faits.
Dimanche soir, un père et son fils ont tiré sur une foule rassemblée sur la plage de Bondi pour la fête juive de Hanouka, faisant au moins 15 morts et 42 blessés.
Cette attaque, qualifiée d’attentat « antisémite » et « terroriste » par les autorités australiennes, a suscité une avalanche d’informations et images en ligne, notamment sur X, où Grok est très utilisé.
Le chatbot a mal identifié Ahmed al Ahmed, célébré en « héros » en Australie après une vidéo le montrant en train d’arracher le fusil d’un des auteurs de l’attentat. L’homme, grièvement blessé, est toujours hospitalisé.
Mais Grok affirme que ces images correspondaient à « une vieille vidéo virale montrant un homme grimpant à un palmier dans un parking », suggérant une « mise en scène ».
Quant à Ahmed al Ahmed, d’origine syrienne, Grok l’identifie comme un otage israélien détenu par le Hamas.
Interrogé sur une autre scène de l’attaque, Grok assure qu’il s’agit d’images de la tempête Alfred, qui a frappé l’est de l’Australie au début de l’année. Sur l’insistance d’un utilisateur, le chatbot a fait marche arrière et reconnu que les images provenaient de l’attaque.
Contacté par l’AFP, le développeur de Grok, xAI, a répondu par un message automatique: « Les médias traditionnels mentent ».
Après l’attaque de Sydney, des internautes ont diffusé une image de l’un des survivants, affirmant à tort qu’il s’agissait d’un « plastron », selon l’organisme de surveillance de la désinformation NewsGuard.
Ce terme (en anglais « crisis actor ») est utilisé par les complotistes pour mettre en doute l’authenticité de crimes de masse et des victimes qu’ils font.
Au sujet de la photo du survivant de Sydney, Grok parle d’une « mise en scène ».
Les experts estiment que l’IA peut être utile, pour géolocaliser des images par exemple, mais jugent pour l’heure impossible de remplacer les humains pour vérifier les faits et expliquer le contexte.
« Tous droits de reproduction et de représentation réservés. © 2025 Agence France-Presse. »









Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE