Crédit : Pixabay/CC0 Domaine public
Signaler, rétrograder et supprimer du contenu ; Suspension temporaire ou permanente des utilisateurs – Voici quelques-unes des interventions utilisées pour maintenir les plateformes de médias sociaux sûres, dignes de confiance et exemptes de contenu préjudiciable. Mais quelle est los angeles meilleure façon de mettre en œuvre ces interventions ? Luca Luceri, chercheur à l’Institut des sciences de l’data (ISI) de l’USC, fait partie d’une équipe qui utilise los angeles science pour orienter los angeles réglementation des médias sociaux.
Luceri travaille sur CARISMA (CAll to Improve Legislation in Social Media), un projet de recherche interdisciplinaire qui vise à « créer un cadre méthodologique clair, maniable et reproductible pour évaluer les politiques qui atténuent efficacement les méfaits des acteurs en ligne responsables d’activités abusives et illicites ». comportement.”
Mais pour évaluer les politiques de modération du contenu des réseaux sociaux, ils doivent d’abord les comprendre. “Les stratégies de modération du contenu changent fréquemment. Elles ne sont pas communiquées de manière claire ou transparente. Il n’y a pas de lignes directrices sur les interventions possibles, par exemple, combien de fois vous devez effectuer une certaine motion pour être suspendu temporairement ou définitivement”, a expliqué Luceri.
Il a récemment co-écrit deux articles CARISMA. “Ces paperwork constituent los angeles première tentative visant à mieux comprendre remark fonctionnent les stratégies politiques de modération, si elles sont efficaces et quels sorts de fautes elles peuvent identifier et modérer”, a-t-il déclaré.
« Quand », « Remark » et « Quoi » pour les comptes d’attente
Luceri a travaillé aux côtés de Francesco Peri, ancien chercheur postdoctoral à l’ISI et aujourd’hui professeur adjoint de science des données au Politecnico di Milano, pour co-écrire los angeles recherche. Science des données EPJ Report de recherche intitulé “Remark fonctionne los angeles modération des comptes Twitter ? Dynamique de création et de suspension de comptes sur Twitter lors d’événements géopolitiques majeurs”.
Des recherches antérieures montrent qu’il y a european une augmentation significative de los angeles création et de los angeles suspension de comptes Twitter en relation avec des événements géopolitiques majeurs. Pour cette raison, « nous voulions examiner remark Twitter gère les nouveaux comptes créés en conjonction avec des événements géopolitiques majeurs », a déclaré Luceri. L’équipe a choisi deux événements politiques mondiaux : l’invasion russe de l’Ukraine et l’élection présidentielle française de 2022.
Ils ont analysé plus de 270 tens of millions de tweets dans plusieurs langues pour montrer que l’augmentation de l’activité sur Twitter s’accompagne de pics de création de comptes et de comportements abusifs, exposant les utilisateurs légitimes à des campagnes de unsolicited mail et à des discours nuisibles.
Résultats?
- Horaire. Ils ont constaté que Twitter est plus actif dans los angeles modération du contenu des comptes Twitter récemment créés que ceux ayant une durée de vie plus longue.
- comportement. Ils ont noté que, par rapport aux comptes légitimes, les comptes suspendus présentaient une utilisation over the top des réponses, un langage toxique excessif et un niveau d’activité globalement plus élevé. De plus, les comptes suspendus interagissent davantage avec les utilisateurs légitimes que d’autres comptes suspects.
- contenu. Ils ont constaté que les comptes suspendus partageaient souvent des messages malveillants et du unsolicited mail.
Ces résultats aident à faire los angeles lumière sur les modèles d’abus des plateformes et sur los angeles modération ultérieure lors d’événements majeurs, et constituent le style d’informations que l’équipe CARISMA recherche lors de los angeles rétro-ingénierie des politiques de modération du contenu des plateformes de médias sociaux.
Tout est connecté
Dans un deuxième article de CARISMA intitulé « L. a. nature interconnectée des dommages et de los angeles modération en ligne : enquête sur los angeles propagation multiplateforme de contenus nuisibles entre YouTube et Twitter », Luceri et ses co-auteurs ont étudié remark une plateforme peut bénéficier des movements de modération d’une autre plateforme. Ce record paraît dans Actes de los angeles 34e conférence ACM sur l’hypertexte et les médias sociaux.
L’équipe a analysé les « vidéos YouTube modérées » partagées sur Twitter. Il s’agit de vidéos YouTube jugées problématiques par los angeles politique de modération du contenu de YouTube et qui ont finalement été supprimées de YouTube.
À l’aide d’un ensemble de données à grande échelle de 600 tens of millions de tweets liés aux élections américaines de 2020, ils ont recherché des vidéos YouTube qui avaient été supprimées. Une fois qu’ils ont su que les modérateurs de YouTube avaient supprimé une vidéo de YouTube, ils ont examiné les caractéristiques comportementales, les interactions et les performances de los angeles vidéo lorsqu’elle était partagée sur Twitter.
Résultats? Les vidéos YouTube supprimées, lorsqu’elles sont partagées sur Twitter avant d’être supprimées, présentent des caractéristiques d’engagement et de comportement différentes de celles des vidéos YouTube non supprimées (acceptées).
- Ils se propagent différemment. « Si nous regardons los angeles diffusion des vidéos au cours de los angeles première semaine de leur lifestyles sur Twitter, vous constaterez que les vidéos modérées (supprimées) sont associées à plus de tweets que les vidéos qui n’ont pas été modérées (non supprimées). est beaucoup plus rapide », a déclaré Luceri.
- Le comportement des utilisateurs est différent. Les chercheurs ont noté que les utilisateurs qui partagent des vidéos YouTube supprimées ont tendance à retweeter passivement le contenu plutôt que de créer des tweets originaux. Alors que les utilisateurs qui ont publié des vidéos non supprimées étaient davantage impliqués dans los angeles création de contenu authentic.
- Les utilisateurs eux-mêmes sont différents. Les chercheurs ont noté que les utilisateurs qui ont partagé des vidéos supprimées sur YouTube liées aux élections américaines de 2020 étaient politiquement d’extrême droite et ont soutenu Trump lors des élections américaines de 2020. Alors que les tendances politiques des utilisateurs qui ont publié des vidéos non supprimées sur YouTube étaient moins extrêmes et plus divers. En outre, ils ont constaté que les utilisateurs qui publient des vidéos YouTube supprimées ne sont pas nécessairement des robots, ce qui signifie que les recherches dans ce domaine doivent non seulement cibler les robots et les trolls, mais également prendre en compte le rôle des foules en ligne et des buildings sociales plus complexes sur les plateformes sociales. … un social différent.
L. a. conclusion plus générale de l’équipe de recherche est qu’ils ont démontré que le contenu préjudiciable provenant d’une plateforme supply (par exemple YouTube) pollue considérablement les discussions sur une plateforme cible (par exemple Twitter).
“Ce travail met en évidence los angeles nécessité de stratégies de modération multiplateformes, mais il montre également qu’elles peuvent être utiles dans los angeles pratique”, explique Luceri. “Savoir qu’un élément de contenu particulier a été jugé inapproprié ou nuisible sur une plateforme peut bénéficier aux stratégies opérationnelles. sur une autre plateforme.
Simulateur de modération de contenu
L’équipe CARISMA utilise les résultats de recherches comme celle-ci et d’autres pour créer un cadre méthodologique dans lequel elle peut expérimenter des stratégies de modération de contenu.
“Nous construisons un simulateur qui simule les réseaux sociaux, les interactions et los angeles diffusion de contenus préjudiciables, tels que los angeles désinformation ou les contenus haineux toxiques”, a déclaré Luceri. « Ce que nous voulons faire avec ce cadre n’est pas seulement d’imiter les écosystèmes d’data, mais nous voulons comprendre l’affect potentiel des outils politiques. »
Il a fourni des exemples de los angeles façon dont ils l’ont vécu dans le simulateur. “Quels sont les affects du suivi si un élément spécifique de contenu de désinformation est supprimé ; par rapport à si un utilisateur est temporairement suspendu ; par rapport à si un utilisateur est suspendu définitivement. Quel sera l’affect après une heure ? après sept jours ? ou si nous ne le supprimons pas du tout. » ?
Il a poursuivi : « Que se passe-t-il si nous supprimons les comptes qui enfreignent certaines politiques et remark cela se compare-t-il à ce qui se passerait si, à los angeles position, nous donnions à ces utilisateurs quelques coups de pouce qui tendent à améliorer los angeles qualité des informations qu’ils partagent ? »
En fin de compte, los angeles simulation et le projet CARISMA en général fourniront des preuves quantitatives sur l’affect et l’affect des outils politiques qui peuvent être utiles pour atténuer les comportements néfastes sur les réseaux sociaux.
“Nous espérons que les décideurs politiques et les régulateurs utiliseront cet outil pour évaluer l’efficience et l’efficacité des outils politiques de manière claire, traçable et reproductible”, a déclaré Luceri.
« L. a. nature interconnectée des dommages et de los angeles modération en ligne : enquête sur los angeles propagation multiplateforme de contenus préjudiciables entre YouTube et Twitter » a été présenté à l’ACM HyperText 2023, où il a été nominé pour le prix du meilleur article.
Plus d’data:
Francesco Peri et al., Remark fonctionne los angeles modération des comptes Twitter ? Dynamique de création et de suspension de comptes sur Twitter lors d’événements géopolitiques majeurs, Science des données EPJ (2023). est ce que je: 10.1140/epjds/s13688-023-00420-7
Valerio L. a. Gatta et al., L. a. nature interconnectée du préjudice et de los angeles modération en ligne, Actes de los angeles 34e conférence ACM sur l’hypertexte et les médias sociaux (2023). est ce que je: 10.1145/3603163.3609058
Fourni par l’Université de Californie du Sud
los angeles quotation: Des chercheurs créent des outils fondés sur los angeles science pour améliorer les politiques de modération du contenu des médias sociaux (7 novembre 2023) Récupéré le 7 novembre 2023 sur
Ce record est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.