Tags

, , , , , , , , , , , , , , , , , , , , , , , , ,

Assim os algoritmos perpetuam a desigualdade social

Cathy O’Neil, autora de ‘Armas de Destruição Matemática’, afirma que já é tarde para nos preocuparmos com a disponibilidade de nossos dados, que agora é preciso perguntar o que as empresas fazem com eles

Cathy O’Neil é uma matemática de cabelo azul que dedica todos os seus esforços a abrir os olhos das pessoas sobre os algoritmos que dominam o mundo. Desde os que indicam ao banco se você é apto ou não a receber uma hipoteca, até os que decidem quem merece uma vaga de trabalho. Um sistema que pode perpetuar as desigualdades existentes no mundo se não começarmos a ser críticos, defende a cientista. “Estamos dando poder a mecanismos sem nos perguntar se realmente funcionam, isso é uma falha como sociedade”, explica de Nova York ao outro lado do telefone.

O’Neil, em seu livro Armas de Destruição Matemática, mostra alguns exemplos para colocar essa teoria em termos reais. Viaja em algumas de suas páginas a Reading, uma pequena cidade da Pensilvânia (Estados Unidos) que em 2011 tinha um nível de pobreza superior a 41%, o mais alto de todo o país. Com um efetivo reduzido pela crise, o chefe de polícia investiu em um programa de predição de crimes chamado PredPol que funciona com big data. O aplicativo divide a cidade em quadrantes e determina em qual deles é mais possível que se cometa um crime baseando-se no registro histórico da polícia. No leque de dados estão desde crimes mais leves como perturbação da ordem pública (beber na rua, por exemplo), até homicídios.

Quanto maior for o número de agentes enviados aos pontos indicados pelo programa, mais prisões ocorrem e assim se entra em um círculo vicioso que enche as prisões de gente, em sua maioria, acusada de crimes menos graves. A maioria dos detidos é de negros e hispânicos. “O mapa da delinquência gerado desse modo traça na realidade um rastro de pobreza”, diz a autora. “Continuamos prendendo negros por coisas pelas quais não prendemos brancos, mas agora já não o dizemos abertamente e disfarçamos de ciência porque o fazemos com o PredPol. Continuamos com o ciclo, porque continuamos prendendo gente de um bairro e os dados nos dizem que precisamos voltar a esse bairro, dessa forma a injustiça policial continua”, afirma na entrevista.

O que é preciso é diversidade nas equipes que escrevem os algoritmos para que incluam pessoas que pensam nas violações dos direitos humanos.

Leia mais:
https://brasil.elpais.com/brasil/2018/04/12/tecnologia/1523546166_758362.html