Lecture de papier – Des robots neutres enquêtent sur les préjugés politiques sur les réseaux sociaux

Lien vers l'article : Des robots neutres enquêtent sur les préjugés politiques sur les réseaux sociaux | EndNote Click

Les plateformes de médias sociaux         qui tentent de lutter contre les abus et la désinformation ont été accusées de parti pris politique . Nous déployons des robots sociaux neutres qui commencent à suivre différents flux d'actualités sur Twitter et les suivons pour explorer les biais apparents dans les mécanismes de la plateforme interagissant avec les utilisateurs . Nous n’avons trouvé aucune preuve solide ou cohérente de parti pris politique dans les fils d’actualité. Néanmoins, les actualités et les informations auxquelles les utilisateurs américains de Twitter sont exposés dépendent largement des tendances politiques de leurs premières relations. Les interactions des comptes conservateurs sont biaisées vers la droite, tandis que les comptes libéraux sont exposés à un contenu modéré, déplaçant leur expérience vers le centre politique. Les comptes partisans, en particulier les comptes conservateurs, ont tendance à gagner plus d'abonnés et à suivre des comptes plus automatisés . Les comptes conservateurs se sont également retrouvés dans des communautés plus denses et exposés à des contenus plus peu crédibles.

arrière-plan

        Les médias sociaux en ligne peuvent connecter plus de personnes à moindre coût et plus rapidement que jamais par rapport aux médias traditionnels. Étant donné qu’une grande partie des personnes utilisent régulièrement les médias sociaux pour générer du contenu, consommer des informations et interagir avec les autres1, les plateformes en ligne façonnent également les normes et les comportements des utilisateurs.

        Des expériences ont montré que le simple fait de modifier les messages qui apparaissent sur un flux social peut influencer l'expression en ligne et le comportement réel d'un utilisateur2,3, et que les utilisateurs des médias sociaux sont sensibles à l'influence sociale précoce4,5 .

Introduction de points de recherche : différenciation à deux niveaux, les utilisateurs ont tendance à être des sujets homogènes ; les algorithmes de recommandation ont tendance à recommander de fausses informations, ce qui n'est pas propice à la détection

        Pendant ce temps, les discussions sur les réseaux sociaux ont tendance à tourner autour de sujets critiques mais controversés tels que les élections6-8, la vaccination9 et le changement climatique10. La polarisation s’accompagne souvent de la ségrégation des utilisateurs en désaccord dans ce que l’on appelle des chambres d’écho11-16, des communautés en ligne homogènes associées à la radicalisation idéologique et à la propagation de la désinformation. La lutte contre ce phénomène indésirable nécessite une compréhension approfondie de ses mécanismes sous-jacents.

        D’une part, la cybervulnérabilité est associée à plusieurs biais cognitifs sociaux chez l’humain, notamment la tendance à sélectionner des informations cohérentes avec les croyances et à rechercher l’homogénéité dans les relations sociales.

        D’un autre côté, les plateformes en ligne ont leurs propres biais algorithmiques . Par exemple, un algorithme de classement qui favorise le contenu populaire et engageant peut créer un cercle vicieux qui amplifie le bruit plutôt que la qualité . L’exposition aux mesures d’engagement peut également augmenter la probabilité d’être influencé par de la désinformation. À titre d'exemple plus extrême, des recherches récentes et des rapports médiatiques ont montré que, quel que soit le point de départ, le système de recommandation de YouTube peut conduire à davantage de désinformation ou à des vues extrêmes dans les vidéos.

        Au-delà des biais cognitifs sociaux des utilisateurs individuels et des biais algorithmiques des plateformes technologiques, notre compréhension de la façon dont les interactions collectives médiées par les médias sociaux affectent les visions du monde que nous acquérons grâce aux écosystèmes d'information en ligne est très limitée . Le principal obstacle est la complexité du système : non seulement les utilisateurs échangent de grandes quantités d'informations avec un grand nombre d'autres personnes via de nombreux mécanismes cachés, mais ces interactions peuvent être manipulées ouvertement ou secrètement par des influenceurs légitimes ainsi que par des adversaires inauthentiques qui ont une incitation à influencer l’opinion ou le comportement radical32. Il existe des preuves que des entités malveillantes telles que des robots sociaux et des trolls ont été utilisées pour diffuser des informations erronées et influencer l'opinion publique sur des questions critiques33-37.

L’objectif est de révéler les préjugés auxquels les gens sont exposés dans l’actualité et l’information.

        Dans cette étude, notre objectif était de découvrir les préjugés auxquels les gens sont exposés dans l’actualité et l’information. Écosystème des médias sociaux. Nous souhaitions particulièrement clarifier le rôle des interactions sur les réseaux sociaux dans le processus de polarisation et la formation de chambres d'écho. Par conséquent, nous nous concentrons sur le discours politique américain sur Twitter en raison du rôle important de la plateforme dans la politique américaine et de sa forte polarisation et de ses chambres d'écho. Twitter forme un réseau social dirigé dans lequel une bordure allant d'un nœud ami à un nœud suiveur indique que le contenu publié par cet ami apparaît sur le fil d'actualité du suiveur.

        Notre objectif est d'étudier les biais de l'écosystème, qui incluent les biais sous-jacents des plateformes et les effets nets des interactions avec les utilisateurs des réseaux sociaux (organiques ou non organiques) , qui sont médiés par les mécanismes des plateformes et régulés par leurs politiques. Même si nous avons seulement tenté de séparer les effets de plateforme des biais naturels dans le contexte étroit de la curation de flux, notre enquête a porté sur les biais globaux subis par les utilisateurs de plateformes. Cela nécessite d'éliminer les préjugés de la part des utilisateurs individuels , ce qui constitue un défi lorsque l'on utilise des méthodes d'observation traditionnelles : il est impossible de séparer les effets sur l'écosystème des facteurs de confusion qui peuvent affecter le comportement des comptes humains suivis, tels que l'âge, le sexe, la race, l'idéologie et la société. Économie.

Comptes de réseaux sociaux entièrement contrôlés par des algorithmes (appelés robots sociaux)

        Nous nous sommes donc tournés vers une approche qui élimine le besoin de contrôler ces facteurs de confusion en utilisant des comptes de réseaux sociaux (appelés robots sociaux) qui imitent les utilisateurs humains mais sont entièrement contrôlés par des algorithmes. Ici, nous déployons des robots sociaux au comportement neutre (impartial) et aléatoire comme outil pour détecter les biais d'exposition dans les médias sociaux. Nous qualifions nos robots de « dériveurs » pour distinguer leur comportement neutre des autres types de robots sociaux bénins et malveillants sur Twitter. Tous les naufragés ont le même modèle de comportement, la seule différence étant les amis initiaux.

        Dans nos expériences, chaque dériveur a été relâché dans la nature après une action initiale représentant une seule variable indépendante (traitement) . Certes, si tous les dériveurs se comportent de la même manière, leur comportement est différent en fonction de leurs conditions initiales. Nous nous attendons à ce que les dériveurs qui suivent initialement des comptes libertaires soient plus susceptibles d'être exposés à du contenu libertaire, d'en partager une partie, d'être suivis par des comptes libertaires, etc. Mais ces comportements sont motivés par les mécanismes de la plateforme et les interactions sociales , et non par des préjugés politiques dans des variables indépendantes : les modèles comportementaux ne peuvent pas faire la distinction entre un contenu libéral, conservateur ou tout autre type de contenu. Par conséquent, le comportement du dériveur fait partie de la variable dépendante (résultat) mesurée dans notre expérience.

problème de recherche

        Cette approche nous a permis d'examiner les biais combinés découlant de la conception du système et des algorithmes de Twitter, ainsi que des interactions sociales organiques et inorganiques entre les Drifters et d'autres comptes. Nos questions de recherche sont les suivantes : (i) Comment un comportement précoce sur les plateformes de médias sociaux influence-t-il l'influence et l'exposition de comptes inauthentiques, de chambres d'écho politiques et de désinformation ?

        (ii) Cet écart pourrait-il être attribué à un parti pris politique dans le fil d'actualité de la plateforme ? Pour répondre à ces questions, nous initialisons les dérives de sources d’information dans différents domaines politiques.

        Cinq mois plus tard, nous avons examiné le contenu consommé et généré par les Drifters et analysé (i) les caractéristiques de leurs amis et abonnés, notamment en déduisant leurs affiliations politiques libérales-conservatrices à travers des liens partagés et des hashtags ;

         (ii) les activités automatisées mesurées par des méthodes d'apprentissage automatique ;

         (iii) Accès à des informations provenant de sources peu fiables identifiées par les organismes de presse et de vérification des faits.

        Nous avons constaté que l'affiliation politique des amis initiaux a un impact significatif sur la popularité, la structure des réseaux sociaux, l'exposition aux robots et aux sources peu crédibles, ainsi que l'affiliation politique incarnée dans le comportement de chaque vagabond. Cependant, nous n’avons trouvé aucune preuve que ces résultats puissent être attribués à un biais de plateforme. Nos recherches sur les tendances politiques dans l'écosystème d'information de Twitter fournissent des informations qui pourraient faciliter le débat public sur la manière dont les plateformes de médias sociaux influencent l'exposition des gens à l'information politique.

résultat

        Tous les dériveurs de nos expériences ont suivi le même modèle comportemental, conçu pour être neutre et pas nécessairement réaliste. Chaque dériveur est activé à des moments aléatoires pour effectuer des actions. Les types d'actions tels que les tweets, les likes et les réponses sont sélectionnés de manière aléatoire en fonction de probabilités prédéfinies. Pour chaque action, le modèle précise comment choisir une cible aléatoire, comme un tweet à retweeter ou un ami à ne plus suivre. L'intervalle de temps entre les actions est tiré d'une large distribution pour produire un comportement de rafale réaliste.

Implémentation du robot à la dérive

        Voir « Méthodes » pour plus de détails. Nous développons 15 robots dérivants, les divisons en cinq groupes et initialisons chaque robot dérivant du même groupe avec le même ami initial. Chaque compte Twitter a utilisé comme premier ami des sources d'information populaires alignées sur la gauche, le centre gauche, le centre, le centre droit ou la droite du spectre politique américain (voir Méthodes pour plus de détails). Nous appelons les vagabonds en fonction de la politique de leurs amis d'origine. Par exemple, un robot initialisé avec une source centre-gauche est appelé dériveur « C.left ».

        Du déploiement le 10 juillet 2019 au déclassement le 1er décembre 2019, nous avons surveillé le comportement du Drifter et collecté des données quotidiennement. Plus précisément, nous avons mesuré : (1) le nombre d'adeptes de chaque naufragé pour comparer leur capacité à gagner de l'influence ; (2) l'exposition à la chambre d'écho de chaque naufragé ; (3) les amis du naufragé (4) la proportion d'informations de faible crédibilité que les Drifters sont exposés à : (5) Le conditionnement politique du contenu généré par les Drifters et leurs amis pour explorer les préjugés politiques.

        Influence. Le nombre de followers peut être utilisé comme indicateur approximatif d’influence. Pour mesurer l’impact des alliances politiques sur la dynamique d’influence, la figure 1 représente la taille moyenne des partisans des dériveurs dans différents groupes au fil du temps.

 (Fig. 1 Croissance des abonnés. L'axe des X montre la durée de l'expérience en 2019, tandis que l'axe des X montre le nombre moyen d'abonnés pour les différentes cohortes de vagabonds. Les intervalles de confiance colorés représentent ± 1 erreur standard. Données sources dans la source données Disponible sous forme de document.Nature Communications | https://doi.org/10.1038/s41467-021-25738-6Articlenature Communications | 6 | www.nature.com/naturecommunications3)

        Pour comparer les taux de croissance entre les groupes, nous avons considéré des observations consécutives du nombre de suiveurs pour chaque naufragé et les avons regroupés au sein de chaque groupe (n = 387 pour la gauche, 373 pour C. à gauche, 389 pour le milieu, 387 pour C. à droite, 386 pour la droite). . Deux tendances sont ressorties des tests (tous les tests de cette analyse et de l'analyse suivante étaient bilatéraux).

        Premièrement, les dériveurs ayant des sources les plus partisanes comme amis initiaux ont tendance à attirer plus de partisans que les dériveurs du milieu (df = 774, t = 5,13, ​​p < 0,001 pour Gauche vs Centre, df = 773, t = 8,00 pour Droite, p < 0,001. ) contre le centre). Deuxièmement, les dériveurs ayant une source initiale de droite ont acquis une proportion d’adeptes significativement plus élevée que ceux ayant une source initiale de gauche (df = 771, t = 3,84, p < 0,001 pour la droite par rapport à la gauche).

        Les différences d’influence entre les naufragés sont influencées non seulement par l’alignement politique, mais aussi par d’autres caractéristiques de leurs amis d’origine. Pour démêler ces facteurs, nous avons mesuré la corrélation entre le nombre de followers de Drifter et deux caractéristiques de leurs amis initiaux : leur influence globale et leur popularité parmi d’autres comptes politiquement affiliés. Bien que l'influence des Drifters n'ait pas été affectée par l'influence globale des amis initiaux, elle était positivement corrélée à leur popularité parmi les comptes politiquement cohérents (voir Note complémentaire). Cela concorde avec les preuves selon lesquelles les utilisateurs partageant des tendances partisanes sont plus susceptibles de nouer des liens sociaux42, comme nous l’explorerons ensuite.

        chambre d'écho.

        Nous définissons les chambres d'écho comme des communautés de médias sociaux denses et hautement agrégées qui amplifient l'exposition de contenus homogènes. Pour déterminer si les robots vagabonds se retrouvent dans de telles chambres d'écho, considérons le réseau du moi de chaque vagabond, c'est-à-dire le réseau constitué du vagabond et de ses amis et disciples . Nous pouvons utiliser la densité et la transitivité des réseaux du moi comme indicateurs de la présence de chambres d’écho. La densité est la fraction de paires de nœuds connectés dans un réseau. La transitivité mesure la proportion de triangles possibles qui existent réellement dans un nœud. Une transitivité élevée signifie que les amis et les abonnés sont également susceptibles de se suivre. Voir « Méthodes » pour plus de détails.

        Les figures 2a, b montrent la densité et la transitivité moyennes du réseau du moi dériveur (voir « Méthodes » pour plus de détails). Étant donné que ces deux mesures sont corrélées dans les réseaux du moi, la figure 2c représente également la transitivité du réajustement à travers des réseaux aléatoires mélangés (voir Méthodes).

 (Fig. 2 La structure de la chambre d'écho autour du dériveur. La densité a, la transitivité b et la transitivité normalisée du réseau de l'ego des dériveurs dans différents groupes. Les barres d'erreur représentent l'erreur standard (n = 3 dériveurs dans chaque groupe ). d Cinq groupes Le réseau de l'ego des Drifters dans Medium. Les nœuds représentent les comptes et les bords représentent les relations amis/suiveurs. La taille et la couleur des nœuds indiquent respectivement le degré de liens partagés (nombre de voisins) et l'orientation politique. Les nœuds noirs manquent de scores d'alignement. en raison du non-partage de contenu politique. Les données sources sont fournies sous forme de fichiers de données sources. 3 Répartition des scores des robots pour les amis et les adeptes des vagabonds. Les scores des robots sont des nombres compris entre 0 et 1, les scores les plus élevés indiquant une automatisation probable. Pour chaque groupe, nous considérons Union d'amis et d'adeptes de vagabonds. Les barres représentent les valeurs moyennes. Pour les amis, n = 282 (à gauche), 261 (à gauche), 206 (au milieu), 323 (à droite) et 414 (à droite). Pour les adeptes, n = 172. (à gauche), 118 (à gauche), 65 (au milieu), 205 (à droite) et 299 (à droite). Les données sources sont fournies sous forme de fichiers de données sources. https://doi.org/10.1038/s41467-021-25738 - 64 Nature Communications | (2021) 12:5580 | https://doi.org/10.1038/s41467-021-25738-6 | www.nature.com/naturecommunications)

        Le réseau du moi des dériveurs de droite est plus dense que celui des dériveurs du milieu (df=4, t=−8,28, p=0,001), tandis que la différence de densité entre les dériveurs du milieu et les dériveurs de gauche n'est pas significative (df= 4, t=− 2,68, p=0,055). Le réseau du compte droit est également plus transitif que le réseau central (df=4, t=−9,31, p<0,001) ; le réseau du compte gauche est également plus transitif (df=4, t=−3,53, p= 0,024 ). Même en tenant compte des différences de densité (df=4, t=−8,96, p<0,001), les comptes de droite sont plus regroupés que les comptes centristes, tandis que les comptes de gauche ne sont pas significativement différents des comptes intermédiaires (df=4, t= −2,73 , p =0,053). De plus, la chambre d'écho était plus forte pour le dériveur droit que pour le dériveur gauche (df = 4, t = −3,84, p = 0,019 pour la densité ; df = 4, t = −3,02, p = 0,039 pour la transitivité). Cependant, la différence de transitivité normalisée entre gauche et droite n'était pas significative (df = 4, t = −0,60, p = 0,579), ce qui suggère que le regroupement plus élevé à droite s'explique par la densité des liens sociaux.

        Automatisez les activités.

        Des comptes automatisés appelés robots sociaux ont participé activement aux discussions en ligne sur les récentes élections américaines33,43,44. Par conséquent, les dériveurs devraient rencontrer des comptes de robots. Nous avons utilisé le service Botometer45,46 pour collecter les scores des robots auprès des amis et des abonnés des dériveurs. Nous rapportons la distribution des scores des robots pour les amis et les abonnés du vagabond dans la figure 3. Il n’est pas surprenant que les dériveurs de tous bords politiques soient plus susceptibles d’avoir des robots parmi leurs partisans que parmi leurs amis. Suivre des amis révèle une vulnérabilité sous-jacente plus profonde parmi les utilisateurs des médias sociaux. Nous avons constaté que les comptes suivis par des dériveurs partisans ressemblaient davantage à des robots que les comptes suivis par des dériveurs centristes (df = 618, t = −6,14, p < 0,001 (droite vs centre) et df = 486, t = −3,67, p < 0,001 (aile gauche vs milieu centre). En comparant la partisanerie et les modérés, les dérives de droite suivent plus de comptes que C. Les dérives de droite sont plus robotiques (df = 735, t = −3,01, p = 0,003), tandis que les libéraux diffèrent moins (df = 541, t = −2,56). , p=0,011 (gauche contre C. gauche). Dans tous les partis, les comptes suivis par les partisans de droite ressemblent davantage à des robots que les comptes de gauche (df=694, t=−2,33, p=0,020).

Je suppose que tu aimes

Origine blog.csdn.net/qq_40671063/article/details/132209242
conseillé
Classement