Pouvons-nous impliquer la société dans une culture Internet autonome?





Avec le développement des médias sociaux et d'autres plateformes en ligne, les gens ont une opportunité sans précédent d'organiser des événements publics. Mais souvent, cette capacité de publier et de diffuser des informations n'est pas utilisée pour de bon. Ici et la propagation de la violence, du terrorisme, du faux, de la vulgarisation des drogues illégales, du spam, des insultes et bien plus encore, qui provoque une résonance dans la société. Et dans de tels cas, la capacité des plateformes en ligne à diffuser des informations commence à fonctionner au détriment des personnes.



Dans le même temps, les plateformes en ligne ont suffisamment de difficultés à identifier les informations que nous n'aimerions pas voir, car le volume de contenu distribué sur Internet est énorme, et ne cesse de croître, et la tâche de modération du contenu n'est en aucun cas anodine. Par conséquent, malgré le succès des méthodes automatisées, le nombre de modérateurs embauchés par les plates-formes en ligne pour afficher manuellement le contenu est également en augmentation constante, tout comme la vague de critiques publiques du processus de modération.







Et surtout, les différends sur qui et dans quelle mesure devrait être responsable du contenu sont de plus en plus nombreux dans la société.





Fin mai 2020, le président Donald Trump a signé un décret sur les plateformes de médias sociaux les appelant à être tenus responsables du contenu publié sur leurs sites et ordonnant à la FTC et au procureur général de commencer à enquêter sur les entreprises. La raison en était la publication sur Twitter d'une étiquette d'avertissement de vérification des faits sur certains des tweets du président, que le président percevait comme de la censure, appliquée de manière sélective et non transparente.



Mais que voulons-nous des entreprises Internet? Pour qu'ils soient une sorte de censure globale de tout et de tout le monde sur leurs plateformes, même au prix coûteux d'une modération manuelle? Ou ne sont-ils pas entrés dans notre communication, au nom de la liberté d'expression? Où est la ligne? Qui définit les règles du jeu? Un compromis est-il possible dans la modération du champ informationnel pour toutes les parties concernées: sociétés Internet, utilisateurs, autorités de régulation? Se pourrait-il que le maintien d'une culture Internet soit un problème complexe qui n'est pas seulement un problème pour les entreprises Internet, mais qui nécessite également la participation de la société elle-même dans ce processus et l'oblige à assumer au moins une partie de la responsabilité du contenu qu'elle publie?



Ces questions se posent plus et plus souvent ...









?





Actuellement, les entreprises tentent d'attirer les utilisateurs vers la modération en utilisant le bouton «se plaindre», dont la mise en œuvre comporte plusieurs approches de base.



Ainsi, en appuyant sur ce bouton, le contenu sélectionné par l'utilisateur peut être envoyé pour révision à un modérateur pré-désigné. L'avantage de cette approche est la facilité avec laquelle les utilisateurs finaux peuvent signaler la violation. L'inconvénient de cette approche est le manque de confiance dans l'évaluation d'un utilisateur individuel et, par conséquent, la nécessité de confirmer la violation par un modérateur, qui n'a souvent pas le temps de répondre en raison de la croissance constante du volume de contenu. Et dans ce cas, le dernier mot, et donc la responsabilité du rejet d'informations inappropriées, repose entièrement sur les épaules des sociétés Internet.



La modération collective est une autre approche majeure. Il existe de nombreuses variantes de cette approche, mais en général, cette approche peut être décrite comme suit. Lorsque le bouton «se plaindre» est cliqué par un certain nombre d'utilisateurs sur le même contenu, les entreprises peuvent considérer qu'il y a eu violation et lancer une procédure automatique pour supprimer le contenu inapproprié ou le signaler de quelque manière que ce soit, avertissant ainsi leurs utilisateurs. L'avantage de cette approche est que les utilisateurs peuvent influencer de manière totalement indépendante la culture de l'information. Assumant ainsi la responsabilité du groupe pour rejeter les informations inappropriées. L'inconvénient est qu'une telle technologie ne fait toujours pas confiance à l'évaluation d'un utilisateur individuel et, par conséquent, elle impliqueun nombre suffisant d'utilisateurs votants, qui peuvent simplement ne pas être recrutés pour organiser le vote sur un contenu spécifique.



En conséquence, la participation de la société au processus de régulation de la culture de réseau dans la pratique est une procédure indirecte ou lourde, difficile à utiliser en masse. Et ceci malgré le fait que les utilisateurs sont intéressés à maintenir une culture Internet adéquate et, comme le montre l'usage du bouton «se plaindre», ils sont prêts à y participer en cas de violation! Cependant, leurs votes sont perçus de manière très conditionnelle, et tout cela du fait que sur Internet, il n'y a pas de confiance dans l'évaluation faite par un utilisateur ordinaire. Non, par défaut.







Mais pouvons-nous apprendre à faire confiance au jugement d'un utilisateur individuel?





Il semblerait qu'il soit impossible de prendre simplement Internet et de se fier à l'évaluation d'un utilisateur ordinaire. Mais les conditions peuvent être créées dans lesquelles cette évaluation peut être fiable. Et nous avons déjà une telle expérience réussie. Cette méthode est utilisée par le reCaptcha bien connu et ennuyeux. Plus précisément, une de ses premières versions, dans laquelle il était demandé à l'utilisateur d'écrire quelques mots d'autorisation sur le site. L'un de ces mots était la validation et était connu du système, et l'autre était inconnu du système et devait être reconnu. Les utilisateurs eux-mêmes ne savaient pas quel mot était connu et lequel ne l'était pas, et pour se connecter plus rapidement, ils devaient essayer de répondre honnêtement et non de deviner.



En conséquence, les utilisateurs qui ont répondu honnêtement et entré correctement le mot de test ont été considérés comme objectifs, et reCaptcha les a ignorés plus loin et a également accepté un mot auparavant inconnu comme résultat correct. Et cela s'est avéré efficace. Avec cette méthode simple, les utilisateurs de reCaptcha au cours des six premiers mois de travail ont réussi à reconnaître environ 150 millions de mots non reconnus qui ne pouvaient pas être reconnus par des méthodes automatiques.





Et si vous appliquez cette approche dans le domaine de la modération?





Similaire à reCaptcha, vous pouvez donner à un utilisateur individuel la possibilité d'effectuer un test de modération, c'est-à-dire un test pour évaluer la conformité d'un certain nombre de publications à certaines règles prédéfinies. Dans ce cas, parmi les publications, il y aura une publication dont l'évaluation ne nous est pas connue, et le reste des publications sera des publications de vérification avec des estimations connues antérieurement. En outre, si l'utilisateur a réussi le test, c.-à-d. a été honnête dans l'évaluation des publications de vérification connues du système, alors nous acceptons son évaluation d'une publication inconnue, c'est-à-dire que nous faisons confiance à l'opinion de cet utilisateur. De plus, pour recevoir une évaluation d'une publication qui nous est inconnue, nous n'aurons donc pas besoin d'organiser un vote collectif. Un utilisateur suffira.



En combinant ce test avec le bouton «se plaindre», nous pouvons créer un environnement qui permet aux utilisateurs de modérer complètement les informations eux-mêmes. Pour organiser cela, après avoir cliqué sur le bouton «se plaindre», l'utilisateur sera d'abord invité à passer un test. Ensuite, s'il réussit le test, le message qu'il souhaite signaler et qu'il pense enfreindre une règle prédéfinie sera envoyé pour examen.



Lors du processus de réussite du test, l'utilisateur sera un modérateur involontaire et impartial d'une certaine publication, dont la note n'est pas encore connue, entre autres publications. Et la publication dont l'utilisateur s'est plaint sera envoyée à la sienne à un autre utilisateur qui utilise également le bouton «se plaindre», qui fonctionne de la même manière ... Et cet utilisateur, à son tour, sera un modérateur involontaire et impartial de cette publication.







Que peut donner cette approche?



  • Cette approche simplifiera le processus de modération, en fera une procédure de masse, dans laquelle chaque utilisateur aura la possibilité d'identifier les informations qui enfreignent les règles.

  • : , — , , .
  • : , -, . , , .




L'utilisation de cette approche se voit principalement lors de la modération de discussions en ligne (commentaires). Ainsi, avec son aide, il est facile d'organiser les utilisateurs de différents sites en une sorte de communauté de modérateurs. Une communauté dans laquelle les utilisateurs appropriés et respectueux de la culture ont la priorité sur les contrevenants et utilise des règles simples. Un petit exemple de mise en œuvre possible d'une telle approche et de règles communautaires est donné ici .



Cette approche peut être utilisée à d'autres endroits dans le domaine de l'information. Par exemple, pour baliser le contenu vidéo, pour détecter l'impolitesse, la cruauté, la drogue, etc. Il peut s'agir d'un balisage vidéo que vous voyez sur YouTube ou qui vous est envoyé via Whatsapp à l'un des groupes dont vous êtes membre. Ensuite, si cette vidéo vous a choqué et que vous souhaitez avertir d'autres personnes, vous pouvez utiliser cette approche pour la marquer comme une vidéo contenant un type de contenu inapproprié. Bien sûr, après avoir terminé le test de modération. Pour simplifier la modération vidéo, vous pouvez optimiser et envoyer pour modération non pas la vidéo entière, mais uniquement un fragment vidéo contenant un contenu inapproprié. En conséquence, avec la distribution ultérieure de cette vidéo, elle sera distribuée avec une marque qui peut être utile à d'autres utilisateurs,qui ne veulent pas voir ce genre de contenu.



La même approche peut être appliquée à d'autres types de violations. Par exemple, dans le cas d'un faux, les utilisateurs peuvent ajouter eux-mêmes une étiquette de vérification des faits ou ajouter un lien vers des informations de réfutation.



Et en conclusion, il convient de noter que les informations non conformes révélées par les utilisateurs utilisant l'approche spécifiée à un endroit ou à un autre du champ d'information peuvent être transmises à l'entrée par des méthodes automatiques, dans le but d'automatiser davantage le processus d'identification de telles violations. Cela permettra aux utilisateurs, ainsi qu'aux sociétés Internet, de résoudre la tâche difficile de modérer les informations que nous publions et diffusons.






All Articles