RESUMO: A atividade de moderação de conteúdo em redes sociais vem sendo majoritariamente protagonizada pela inteligência artificial. Criadas, alimentadas e treinadas por humanos, essas complexas linhas de código estão sujeitas à reprodução, na esfera digital, de vises discriminatórios pré-existentes no mundo físico. Partindo dessa premissa, este ensaio problematiza supostas “ineficiências” da inteligência artificial na atividade de moderação de conteúdo, especificamente no que tange à prática de discriminação algorítmica contra grupos vulnerabilizados. Apesar de frequentemente reconhecidos pelas próprias aplicações como “erros” da máquina, meu argumento é de que reiterados episódios de discriminação algorítmica revelam, antes, uma seletividade programada.
Leia na íntegra aqui.
Publicado na: Revista Brasileira de Direito Civil | RBDCivil