Переходьте в офлайн за допомогою програми Player FM !
#191 - IA générative, élections et brand safety : NewsGuard fait le bilan, avec Chine Labbé
Manage episode 419803405 series 2796046
Cette semaine je reçois Chine Labbé, Managing Editor & Vice Président des Partenaires chez Newsguard, membre du comité d’éthique de Radio France. Vous en apprendre plus sur :
# Sa mission chez Newsguard : une entreprise qui prévient et cartographie la désinformation, la mésinformation et la propagande dans le monde en utilisant des outils et méthodes journalistiques et en s’appuyant sur deux bases de données
# La mission de Newsguard, qui a évolué depuis 1 an : lancement de la newsletter Reality Check, analyse des campagnes de désinformation autour du conflit Israël/Hamas, reconnaissance de médias de qualité en Ukraine
# La baisse récente du score de crédibilité du New York Times, qui est passé de 100 à 87,5, car il échoue à faire la distinction entre entre opinion et fait dans des articles sur la politique américaine
# Le calcul du score de crédibilité : l’analyse est faite selon une série de critères et de manière “manuelle” par des journalistes
# Leur monétisation est réalisée par des licences pour accéder à leur base de données de sites de désinformation. Cela permet aux annonceurs et aux acteurs de la chaîne publicitaire de :
1. S’assurer que leur publicités ne sont pas sur des sites à la crédibilité douteuse et d’éviter d’y associer leur image
2. Redistribuer les publicités vers des listes d’inclusions avec des sites crédibles locaux ou plus niches.
NewsGuard permet également des accompagnements custom selon des critères définis
# La sensibilisation des annonceurs à ne pas couper leurs investissements des sites de news pour éviter de couper les financements de la presse
# En mai 2024, Newsguard a dénombré 811 sites d’information générés de l’IA, potentiellement utilisés pour des campagnes de désinformation ou mésinformation. Notre invitée donne l’exemple de Global Village Space, une ferme de contenus basée au Pakistan
# L’utilisation de l’IA pour repérer la désinformation : seul l'œil humain peut le faire selon Chine Labbé. Reste que NewsGuard a fait un partenariat avec SafetyKit pour automatiquement identifier les infox afin de les modérer ou de déployer des fact-checks
# Leur collaboration avec Microsoft pour créer des garde-fous afin d’améliorer leur outil Designer, un IA générative pour entrainer des modèles et “stress-tester” leur produit
# L’année 2024 qui comptabilise une 60 d’élections : Newsguard les monitore et surveille les nouveaux médias arrivant
# Le tournant des GAFAM qui bloquent les comptes “politiques”. Chine dévoile l’exemple du Canada où l’engagement avec les sources fiables a baissé en raison du blocage des sources news de la part de Meta
# Son rôle bénévole auprès de Radio France au sein du Comité d´éthique - Comité relatif à l'honnêteté, à l'indépendance et au pluralisme de l'information et des programmes - présidée par Françoise Benhamou. Le Comité peut être saisi par les journalistes, les auditeur•ices, mais aussi par la direction
# Leur axe de développement : s’étendre en Europe avec plusieurs langues et dans d’autres pays.
Ils en parlent :
# L’expérimentation de Jack Brewster, Enterprise Editor chez Newsguard, qui a déboursé $105 pour créer un site de désinformation local dans l’Ohio et racontée dans le Wall Street Journal
# Le truc cool de Chine : Le Jour d’Avant de Sorj Chalandon adapté en roman graphique
# Pour participer à notre 200ème épisode, ça se passe ici.
# Rejoignez la communauté WhatsApp juste ici.
# Abonnez-vous à la chaîne YouTube ici.
Pour découvrir tout ça, c’est par ici si vous préférez Apple Podcast, par là si vous préférez Deezer ou encore là si vous préférez Spotify.
Et n’oubliez pas de laisser 5 étoiles et un commentaire sympa sur Apple Podcast si l’épisode vous a plu.
Mediarama est un podcast du label Orso Media produit par CosaVostra.
Retrouvez Mediarama sur : Apple Podcasts | Spotify |Deezer
244 епізодів
Manage episode 419803405 series 2796046
Cette semaine je reçois Chine Labbé, Managing Editor & Vice Président des Partenaires chez Newsguard, membre du comité d’éthique de Radio France. Vous en apprendre plus sur :
# Sa mission chez Newsguard : une entreprise qui prévient et cartographie la désinformation, la mésinformation et la propagande dans le monde en utilisant des outils et méthodes journalistiques et en s’appuyant sur deux bases de données
# La mission de Newsguard, qui a évolué depuis 1 an : lancement de la newsletter Reality Check, analyse des campagnes de désinformation autour du conflit Israël/Hamas, reconnaissance de médias de qualité en Ukraine
# La baisse récente du score de crédibilité du New York Times, qui est passé de 100 à 87,5, car il échoue à faire la distinction entre entre opinion et fait dans des articles sur la politique américaine
# Le calcul du score de crédibilité : l’analyse est faite selon une série de critères et de manière “manuelle” par des journalistes
# Leur monétisation est réalisée par des licences pour accéder à leur base de données de sites de désinformation. Cela permet aux annonceurs et aux acteurs de la chaîne publicitaire de :
1. S’assurer que leur publicités ne sont pas sur des sites à la crédibilité douteuse et d’éviter d’y associer leur image
2. Redistribuer les publicités vers des listes d’inclusions avec des sites crédibles locaux ou plus niches.
NewsGuard permet également des accompagnements custom selon des critères définis
# La sensibilisation des annonceurs à ne pas couper leurs investissements des sites de news pour éviter de couper les financements de la presse
# En mai 2024, Newsguard a dénombré 811 sites d’information générés de l’IA, potentiellement utilisés pour des campagnes de désinformation ou mésinformation. Notre invitée donne l’exemple de Global Village Space, une ferme de contenus basée au Pakistan
# L’utilisation de l’IA pour repérer la désinformation : seul l'œil humain peut le faire selon Chine Labbé. Reste que NewsGuard a fait un partenariat avec SafetyKit pour automatiquement identifier les infox afin de les modérer ou de déployer des fact-checks
# Leur collaboration avec Microsoft pour créer des garde-fous afin d’améliorer leur outil Designer, un IA générative pour entrainer des modèles et “stress-tester” leur produit
# L’année 2024 qui comptabilise une 60 d’élections : Newsguard les monitore et surveille les nouveaux médias arrivant
# Le tournant des GAFAM qui bloquent les comptes “politiques”. Chine dévoile l’exemple du Canada où l’engagement avec les sources fiables a baissé en raison du blocage des sources news de la part de Meta
# Son rôle bénévole auprès de Radio France au sein du Comité d´éthique - Comité relatif à l'honnêteté, à l'indépendance et au pluralisme de l'information et des programmes - présidée par Françoise Benhamou. Le Comité peut être saisi par les journalistes, les auditeur•ices, mais aussi par la direction
# Leur axe de développement : s’étendre en Europe avec plusieurs langues et dans d’autres pays.
Ils en parlent :
# L’expérimentation de Jack Brewster, Enterprise Editor chez Newsguard, qui a déboursé $105 pour créer un site de désinformation local dans l’Ohio et racontée dans le Wall Street Journal
# Le truc cool de Chine : Le Jour d’Avant de Sorj Chalandon adapté en roman graphique
# Pour participer à notre 200ème épisode, ça se passe ici.
# Rejoignez la communauté WhatsApp juste ici.
# Abonnez-vous à la chaîne YouTube ici.
Pour découvrir tout ça, c’est par ici si vous préférez Apple Podcast, par là si vous préférez Deezer ou encore là si vous préférez Spotify.
Et n’oubliez pas de laisser 5 étoiles et un commentaire sympa sur Apple Podcast si l’épisode vous a plu.
Mediarama est un podcast du label Orso Media produit par CosaVostra.
Retrouvez Mediarama sur : Apple Podcasts | Spotify |Deezer
244 епізодів
Все серии
×Ласкаво просимо до Player FM!
Player FM сканує Інтернет для отримання високоякісних подкастів, щоб ви могли насолоджуватися ними зараз. Це найкращий додаток для подкастів, який працює на Android, iPhone і веб-сторінці. Реєстрація для синхронізації підписок між пристроями.