Palavras são alteradas para driblar censuras, criadores se adaptam com algoritmos, criando novas expressões em comunidades digitais.
A censura é um tema de extrema relevância no contexto da comunicação digital. Com o advento da internet e de plataformas de mídia social, o conceito de censura se tornou cada vez mais complexo e multifacetado. A forma como lidamos com o conteúdo adulto, por exemplo, é um tema de grande debate. A censura impede o acesso a esse tipo de conteúdo, mas também pode ser vista como uma forma de proteger os usuários mais vulneráveis.
Na década de 1930, o regime nazista da Alemanha empregou a censura como uma ferramenta de controle social ao restringir a disseminação de ideias contrárias ao seu discurso. Em contraste, o suicídio é um tema delicado que também é afetado pela censura. Ainda em 2022, a censura online continua a ser um problema, com muitas plataformas bloqueando conteúdo que aborda o suicídio. Nesse contexto, é fundamental questionar o papel da censura em relação ao conteúdo adulto e a sua relação com a liberdade de expressão.
Alegoria de Controle Linguístico no Século 21
A censura algorítmica se apresenta como uma poderosa ferramenta de controle linguístico, onde termos considerados ‘sensíveis’ ou ‘inapropriados’ são substituídos por eufemismos, como ‘conteúdo adulto’ em vez de ‘pornografia’ em redes sociais e plataformas de vídeo. Isso não é novo, pois a história da linguagem é permeada por tentativas de controlar o discurso. George Orwell, em ‘1984’, descreveu esse controle detalhadamente, alertando para os perigos de um mundo onde a linguagem é manipulada para fins de censura.
Adaptações Linguísticas para Burlar Restrições
No ambiente online, expressões são adaptadas para driblar as restrições impostas por algoritmos. No TikTok, a palavra ‘suicídio’ é substituída por ‘unalive’, enquanto ‘gay’ é chamado de ‘yag’. Essa prática é uma forma de autocensura, onde os criadores de conteúdo se adaptam às regras algorítmicas para manterem sua audiência. Algoritmos não apenas filtram conteúdo, mas também moldam a forma como nos comunicamos, criando um ambiente de autocensura que é inevitável para os criadores.
Impacto Desproporcional em Comunidades Marginalizadas
A censura algorítmica tem um impacto desproporcional em grupos vulneráveis, como criadores LGBTQIA+, produtores de conteúdo educativo sobre saúde mental e influenciadores que discutem sexualidade. Eles enfrentam dificuldades para alcançar suas audiências, pois os algoritmos classificam seus conteúdos como ‘impróprios para anunciantes’. Isso leva a criadores a usar códigos ou termos modificados para driblar os filtros, como ‘le$bian’ ou ‘trans’.
Desmonetização de Conteúdo Sensível
Plataformas como YouTube e Instagram desmonetizam vídeos que mencionam temas sensíveis, mesmo quando tratados de forma informativa. Isso inclui conteúdo sobre métodos contraceptivos ou prevenção ao HIV, mesmo que não violem as diretrizes explícitas da plataforma. Essa prática incentiva criadores a reescrever seu conteúdo com novas palavras para se manterem relevantes, mas prejudica discussões importantes.
Conservadorismo Forçado e Silenciamento de Discursos
As empresas alegam que essas práticas são voltadas para evitar conteúdos considerados ‘sensíveis’ ou ‘inapropriados’, mas os critérios usados para classificação e censura frequentemente resultam em discriminação velada contra discursos que desafiam o status quo, como temas progressistas ligados à diversidade, saúde mental e sexualidade. O silenciamento de discursos LGBTQIA+ é um dos principais alvos, e criadores que abordam esses temas relatam frequentemente desmonetização e redução de visibilidade.
Fonte: @ Nos
Comentários sobre este artigo