Podemos envolver a sociedade na cultura autossustentável da Internet?





Com o desenvolvimento das mídias sociais e outras plataformas online, as pessoas têm uma oportunidade sem precedentes de hospedar eventos públicos. Mas muitas vezes essa capacidade de publicar e divulgar informações não é usada para o bem. Aqui e na disseminação da violência, do terrorismo, da falsificação, da popularização das drogas ilegais, do spam, dos insultos e muito mais, o que causa uma ressonância na sociedade. E, nesses casos, a capacidade das plataformas online de divulgar informações começa a prejudicar as pessoas.



Ao mesmo tempo, as plataformas online têm bastante dificuldade em identificar informações que não gostaríamos de ver, uma vez que o volume de conteúdo distribuído na Internet é enorme e em constante crescimento, e a tarefa de moderação de conteúdo não é nada trivial. Portanto, apesar do sucesso dos métodos automatizados, o número de moderadores contratados pelas plataformas online para visualizar o conteúdo manualmente também está crescendo constantemente, assim como a onda de críticas públicas ao processo de moderação.







E, acima de tudo, as disputas sobre quem e em que medida deveriam ser os responsáveis ​​pelo conteúdo estão cada vez mais acirrando na sociedade.





No final de maio de 2020, o presidente Donald Trump assinou uma ordem executiva em plataformas de mídia social exigindo que eles fossem responsabilizados pelo conteúdo postado em seus sites e ordenando que a FTC e o procurador-geral comecem a investigar as empresas. O motivo foi a postagem no Twitter de uma etiqueta de advertência de verificação de fatos em alguns dos tweets do presidente, que o presidente percebeu como censura, aplicada seletivamente e não de forma transparente.



Mas o que queremos das empresas de Internet? Para eles serem uma espécie de censor global de tudo e de todos em suas plataformas, mesmo que ao alto custo da moderação manual? Ou não entraram em nossa comunicação, em nome da liberdade de expressão? Onde está a linha? Quem define as regras do jogo? É possível um compromisso na moderação do campo da informação para todas as partes envolvidas: empresas de Internet, usuários, autoridades reguladoras? Será que a manutenção de uma cultura da Internet é um problema complexo que não é problema apenas para as empresas de Internet, mas também exige a participação da própria sociedade nesse processo e que ela assuma pelo menos parte da responsabilidade pelo conteúdo que publica?



Essas questões surgem cada vez com mais frequência ...









?





Atualmente, as empresas estão tentando atrair usuários para a moderação usando o botão "reclamar", cuja implementação possui várias abordagens principais.



Assim, ao premir este botão, o conteúdo selecionado pelo utilizador pode ser enviado para revisão a um moderador pré-nomeado. A vantagem dessa abordagem é a facilidade com que os usuários finais podem indicar a violação. A desvantagem dessa abordagem é a falta de confiança na avaliação de um usuário individual e, consequentemente, a necessidade de confirmação da violação por um moderador, que muitas vezes não tem tempo para responder devido ao constante crescimento do volume de conteúdo. E, neste caso, a palavra final e, portanto, a responsabilidade pela rejeição de informações inadequadas recai inteiramente sobre os ombros das empresas de Internet.



A moderação coletiva é outra abordagem importante. Existem muitas variações dessa abordagem, mas, em geral, ela pode ser descrita da seguinte maneira. Quando o botão “reclamar” é clicado por um determinado número de usuários no mesmo conteúdo, as empresas podem considerar que houve violação e iniciar um procedimento automático para remover o conteúdo impróprio ou sinalizá-lo de alguma forma, alertando seus usuários. A vantagem dessa abordagem é que os usuários podem influenciar de forma totalmente independente a cultura da informação. Assim, assumindo a responsabilidade do grupo por rejeitar informações inadequadas. A desvantagem é que tal tecnologia ainda não confia na avaliação de um usuário individual e, como resultado, implica em algunsum número suficiente de usuários votantes, que podem simplesmente não ser recrutados para organizar a votação em um conteúdo específico.



Como resultado, a participação da sociedade no processo de regulamentação da cultura de rede na prática é um procedimento indireto ou complicado de difícil aplicação em grande escala. Isso apesar de os usuários estarem interessados ​​em manter uma cultura Internet adequada e, como mostra a prática de usar o botão “reclamar”, estão prontos para participar em caso de violações! Porém, seus votos são percebidos de forma muito condicional, e isso se deve ao fato de não haver confiança na avaliação feita por um usuário comum na Internet. Não, por padrão.







Mas podemos aprender a confiar no julgamento de um usuário individual?





Parece que é impossível simplesmente pegar a Internet e confiar na avaliação de um usuário comum. Mas podem ser criadas condições nas quais essa avaliação seja confiável. E já temos uma experiência de sucesso. Este método é usado pelo conhecido e enfadonho reCaptcha. Mais precisamente, uma de suas primeiras versões, em que o usuário era solicitado a escrever algumas palavras para autorização no site. Uma dessas palavras era validação e conhecida pelo sistema, e a outra era desconhecida pelo sistema e precisava ser reconhecida. Os próprios usuários não sabiam qual palavra era conhecida e qual não era, e para fazer o login mais rápido, eles tinham que tentar responder com honestidade e não adivinhar.



Como resultado, os usuários que responderam honestamente e inseriram a palavra de teste corretamente foram considerados objetivos, e o reCaptcha os ignorou e também aceitou uma palavra anteriormente desconhecida como o resultado correto. E acabou sendo eficaz. Com este método simples, os usuários do reCaptcha nos primeiros seis meses de trabalho reconheceram com sucesso cerca de 150 milhões de palavras não reconhecidas que não podiam ser reconhecidas por métodos automáticos.





E se você aplicar essa abordagem na área de moderação?





Semelhante ao reCaptcha, você pode dar a um usuário individual a capacidade de realizar um teste de moderação, ou seja, um teste para avaliar a conformidade de uma série de publicações com certas regras predefinidas. Neste caso, entre as publicações haverá uma publicação cuja avaliação não nos é conhecida, e as demais publicações serão publicações de verificação com estimativas previamente conhecidas. Além disso, se o usuário tiver passado com sucesso no teste, ou seja, foi honesto ao avaliar publicações de verificação conhecidas pelo sistema, então aceitamos sua avaliação de uma publicação desconhecida, ou seja, confiamos na opinião deste usuário. Além disso, para recebermos uma avaliação de uma publicação que não conhecemos, portanto, não precisaremos organizar uma votação coletiva. Um usuário será o suficiente.



Combinando este teste com o botão “reclamar”, podemos criar um ambiente que permite aos usuários moderar totalmente as informações eles próprios. Para organizar isso, após clicar no botão "reclamar", o usuário primeiro será solicitado a fazer um teste. Então, se ele passar no teste, a postagem que ele deseja denunciar e que acredita violar alguma regra predefinida será enviada para revisão.



No processo de aprovação no teste, o usuário será um moderador involuntário e imparcial de uma determinada publicação, cuja avaliação ainda não é conhecida, entre outras publicações. E a publicação da qual o usuário se queixou será enviada para sua própria para outro usuário que também usa o botão "reclamar", que funciona de forma semelhante ... E esse usuário, por sua vez, será um moderador involuntário e imparcial desta publicação.







O que essa abordagem pode oferecer?



  • Esta abordagem irá simplificar o processo de moderação, torná-lo um procedimento massivo, no qual cada usuário tem a oportunidade de identificar informações que violam as regras.

  • : , — , , .
  • : , -, . , , .




O uso dessa abordagem é visto principalmente ao moderar discussões online (comentários). Assim, com sua ajuda, é fácil organizar usuários de diferentes sites em uma espécie de comunidade de moderadores. Uma comunidade, quando apropriado, os usuários culturalmente respeitosos têm precedência sobre os violadores e usam regras simples. Um pequeno exemplo de uma possível implementação de tal abordagem e regras da comunidade é fornecido aqui .



Essa abordagem pode ser usada em outros lugares no campo da informação. Por exemplo, para marcar conteúdo de vídeo, para identificar grosseria, crueldade, drogas, etc. Pode ser uma marcação de vídeo que você vê no YouTube ou enviada a você via Whatsapp para um dos grupos dos quais você é membro. Então, se este vídeo o chocou e você deseja avisar outras pessoas, você pode usar essa abordagem para marcá-lo como um vídeo que contém algum tipo de conteúdo impróprio. Claro, depois de completar o teste de moderação. Para simplificar a moderação de vídeo, você pode otimizar e enviar não todo o vídeo para moderação, mas apenas um fragmento de vídeo com conteúdo impróprio. Como resultado, com a distribuição posterior deste vídeo, ele será distribuído com uma marca que pode ser útil para outros usuários,que não querem ver este tipo de conteúdo.



A mesma abordagem pode ser aplicada a outros tipos de violações. Por exemplo, no caso de uma falsificação, os usuários podem adicionar um rótulo de verificação de fatos por conta própria ou adicionar um link para refutar informações.



E, em conclusão, deve-se notar que as informações infratoras identificadas pelos usuários que utilizam esta abordagem em um ou outro local do campo de informações podem ser transferidas para a entrada por métodos automáticos, com o objetivo de automatizar ainda mais o processo de identificação de tais violações. Isto permitirá aos utilizadores, em conjunto com as empresas da Internet, resolver a difícil tarefa de moderar a informação por nós publicada e divulgada.






All Articles