• OPINIÃO

Código 's4p4t40': lesbofobia algorítmica e a plataformização da vida

Pesquisadora discute lógica ambivalente de redes sociais que interditam palavras, linguagens e existências, ao mesmo tempo que produzem e privatizam dados


Foto: Unsplash

11 jan. 2022 | Julianna Motter


Tudo tem se transformado em dados, e nossas vidas têm sido cada vez mais guiadas e geridas por algoritmos. Sabe a máxima de Antoine Lavoisier de que “na natureza, nada se cria, nada se perde, tudo se transforma”? Nos tempos de hoje, podemos facilmente afirmar que nada se perde, porque tudo se transforma em dados. E dados se transformam em poder econômico de barganha sobre nossas próprias vidas.


Mas o que isso significa para sujeites LGBTI+? Muita coisa, e ainda nem começamos a ter noção da importância desse tipo de discussão.


Falar sobre dados e algoritmos significa pensar os processos de plataformização vigentes em nossas sociedades e, ainda, pensar a relevância que as plataformas digitais – comumente associadas aos aplicativos – têm em nossas vidas e como elas têm sido centrais nas nossas escolhas e protagonizado questões fundamentais para as sociedades. Estamos falando das mudanças nas noções de trabalho e na reconfiguração dos direitos trabalhistas, da gestão da saúde, de nossa vida sexual-afetiva e diversos outros aspectos do dia a dia em sociedade.


Tenho gostado de utilizar a expressão “plataformização das questões de gênero e sexualidade” para me referir aos processos e atualizações contemporâneas de práticas, experimentações e experiências de gênero e sexualidade (re)mediadas pelas novas tecnologias digitais. Os aplicativos de relacionamento, a reinvenção da saída do armário, novas maneiras de enxergar a educação sexual ou mesmo a atualização dos debates em torno das identidades e identificações por meio das plataformas e de seus usos por influenciadores LGBTI+ fazem parte desse fenômeno, entre outros exemplos possíveis.



O surgimento de novas tecnologias interfere diretamente na maneira como conduzimos nossas vidas e nossos afetos. Isso não é novidade. Mas, mais que isso, elas alteram os regimes de visibilidade vigentes, redefinindo visibilidades, invisibilidades. Há também o que a pesquisadora Safiya Noble chamou de "hipervisibilidade negativa" ao observar como mulheres negras aparecem de maneira hipersexualizada e racista nos buscadores de internet. Diante disso, podemos fazer a seguinte pergunta: visíveis, mas a que custo?


Em 2019, uma campanha chamada #SEOLesbienne cobrou uma tomada de posição do buscador da Google sobre as respostas pornográficas que a plataforma apresentava quando se referia às lésbicas e às lesbianidades. Na ocasião, a empresa, que já se via obrigada a abandonar a desculpa de que não poderia interferir em seus algoritmos de pesquisa e apresentação de resultados, decidiu rever suas fórmulas matemáticas e intervenções humanas para modificar essa tendência.


A visibilidade tem seu preço. Ainda que não vejamos na superfície, ela é mais um dos produtos desse sistema de dados, algoritmos e plataformas. E esse jogo entre querer visibilidade, mas tê-la submetida às lógicas mercadológicas e normativas desses espaços, é traiçoeiro. Principalmente porque coloca em jogo a permanência de determinadas pessoas nesses ambientes.


Lesbofobia algorítmica


Aposto que você já viu por aí alguém denunciando o Instagram por ter retirado uma publicação do ar. Esse fenômeno tem ocorrido principalmente com o uso de expressões como “sapatão”, “sapatona” e “travesti”. Normalmente, a retirada é acompanhada por um aviso que informa ao usuário que o uso de determinados termos e/ou imagens ferem as políticas de uso e diretrizes de comunidade. Mas se estou falando de mim, isso fere a quem?


Estudando esse fenômeno, especialmente a partir das denúncias de usuárias lésbicas e sapatonas, e a maneira como ele ocorre nas mais diversas plataformas (sejam de redes sociais, de relacionamentos, buscadores etc.), passei a nomeá-lo de lesbofobia algorítmica. Em tempo, ressalto que esta denominação contempla uma trajetória acadêmica específica, que buscou se debruçar sobre as experiências desse grupo populacional específico, sem pretensão de invisibilizar o impacto dessa categoria de violência a pessoas trans e travestis, bissexuais, não binárias e outras. Assim, o esforço é de atribuir nome e definição a este tipo de fenômeno e estimular esse tipo de discussão crítica sobre esses espaços. Nomear é importante, como nos ensina Audre Lorde, porque também é uma estratégia de pressionar para a mudança.


A lesbofobia algorítmica é uma resposta automatizada das plataformas à existência e permanência de lésbicas e sapatonas nas mais diversas plataformas – são relatos a partir do Instagram, Facebook, Tinder, Linkedin e por aí vai. Uma resposta que reitera e atualiza a violência lesbofóbica à qual esses corpos já são submetidos diariamente. A inspiração para realizar essa categorização veio a partir do trabalho de Tarcizio Silva. Onde o pesquisador propõe a utilização da expressão “racismo algorítmico” em oposição à noção de algoritmo racista, com o intuito de dar dimensão a um fato que não é isolado, mas sim parte de todo um sistema racista, cissexista, heteronormativo, patriarcal.


A verdade é que os modos de produção no campo tecnológico historicamente privilegiam treinamentos e produções enviesadas no sistema, incorporando ideologias opressoras e discriminatórias. Como as plataformas, que são fruto desse contexto, poderiam escapar disso? São denúncias sobre LGBTIfobia presentes a toda hora: palavras e/ou imagens censuradas, falta de verificação para produtoras de conteúdo e influenciadoras lésbicas (alguém lembra da #VerificaSapatão?), enviesamento de gênero na leitura das inteligências artificiais e outros vários acontecimentos que colocam em questão se as plataformas são de fato espaços amigáveis a sujeites LGBTI+ e outras dissidências. Jack Halberstam atenta para maneira como há formas mais ou menos aceitáveis de ser lésbica e isso é reproduzido a partir das plataformas, com seus jogos de (in)visibilidades.


A automatização tende a não apenas invisibilizar, mas a homogeneizar um grupo diverso de sujeites e deixar passar batido diferenças essenciais. Um exemplo disso é o fato de que o ano de 2022 já começou com as políticas de verificação e permanência da plataforma de rede social Twitter sendo denunciadas, após vazamentos de dados que informam a maneira como a plataforma privilegia aqueles que a favorecem economicamente, em especial perfis conservadores. Deixando de fora ativistas e militantes que lutam pelo fim das desigualdades e colocando em risco sua permanência nesses espaços – afinal, as políticas de verificação serviriam para dar mais segurança.


Como é possível, portanto, que as plataformas informem aos usuários que trabalham para combater o discurso odioso em suas ambiências e, simultaneamente, impeçam sujeites LGBTI+ de se referirem a si mesmos? Ou os obriguem a escrever em códigos? É possível ser s4p4t40 com segurança? Ainda estamos tentando responder a essas inquietações e ainda há muito mais por vir, quando estamos falando da lógica ambivalente que interdita certas palavras, linguagens e existências, ao mesmo tempo que produz e privatiza dados em um volume nunca antes visto sobre essa população.



 

Julianna Motter

Jornalista, mestra em Direitos Humanos e Cidadania (UnB), doutoranda em Comunicação e Culturas Contemporâneas (UFBA) e bacharel em Filosofia (UnB).

 

* Os textos publicados nesta seção não necessariamente refletem a opinião da Diadorim.



Esse é um espaço de reflexão sobre diversidade sexual e identidades de gênero, com ênfase na defesa dos direitos da população LGBTI+. Você também pode colaborar. Quer escrever para a Diadorim? Fale com a gente, pelo e-mail redacao@adiadorim.org.