
[ad_1]
Facebook annonce régulièrement de nouvelles mesures afin de faire le ménage sur sa plateforme. Et cette semaine, le numéro un des réseaux sociaux a partagé quelques informations concernent cet effort sur les groupes. Les groupes Facebook peuvent aider à créer de magnifiques communautés en ligne, mais malheureusement, cette fonctionnalité peut aussi être utilisée pour propager de la désinformation, des propos haineux, etc.
Néanmoins, le réseau social assure qu’il progresse dans sa lutte contre les contenus qui violent les règles de la communauté. Ainsi, au cours de l’année dernière, 1,5 million de contenus ont été supprimés pour violation de la politique du réseau social sur la haine organisée. Et sur ces 1,5 million de contenus, 91 % ont été détectés de manière proactive. 12 millions de contenus ont été supprimés pour violation de la politique sur les propos haineux et 87 % ont été détectés de manière proactive.
De nouvelles mesures pour les groupes Facebook
Et en plus d’agir au niveau des publications, Facebook assure qu’il agit également au niveau des groupes. « Notre politique de récidive actuelle empêche les administrateurs d’un groupe de créer un autre groupe similaire à celui que nous avons supprimé. À l’avenir, les administrateurs et les modérateurs des groupes supprimés pour violation de règles ne pourront plus créer de nouveaux groupes pendant un certain temps », indique Tom Alison, VP of Engineering.
« Pour les membres qui ont des violations des normes de la communauté dans un groupe, leurs publications dans ce groupe devront désormais être approuvées pendant les 30 prochains jours. Cela empêche leur message d’être vu par d’autres jusqu’à ce qu’un administrateur ou un modérateur l’approuve. Si les administrateurs ou les modérateurs approuvent à plusieurs reprises les publications qui enfreignent nos normes de la communauté, nous supprimerons le groupe », annonce aussi le responsable.
Facebook peut également limiter la visibilité de certains groupes, comme ceux qui sont liés à des violences. Ceux-ci ne seront plus recommandés, apparaitront moins sur la recherche, ainsi que sur le fil d’actualité. Le réseau social va aussi cesser de recommander les groupes qui ont un lien avec la santé. L’entreprise admet que ces groupes peuvent avoir un intérêt, mais reconnait également qu’il est important que les informations sanitaires proviennent des sources officielles. Un groupe peut aussi être supprimé si celui-ci partage trop de contenu de désinformation.
Facebook ne veut plus voir de groupes sans administrateurs. Aussi, lorsque les admins d’un groupe décident de se retirer, Facebook proposera à d’autres membres d’assurer ce rôle. Mais si personne ne veut gérer le groupe, celui-ci finira par être archivé. Le fait que Facebook renforce l’application de son règlement sur les groupes pourrait aider à limiter la propagation des contenus de désinformation et les propos haineux durant la campagne présidentielle aux États-Unis. Cela devrait aussi limiter la propagation des contenus de désinformation concernant la pandémie de COVID-19.
Récemment, Facebook a également annoncé des mesures pour limiter la propagation de la désinformation sur Messenger. Désormais, la plateforme limite le nombre de partages qu’on peut faire pour un message.
[ad_2]
Source link






Poster un Commentaire