• Nina da Hora

Coded Bias: linguagem acessível para entender vieses em algoritmos

Atualizado: Mai 29

As lições, reflexões e o recado que o documentário passa sobre os impactos da Inteligência Artificial sobre a sociedade e como devemos construir tecnologias mais inclusivas e menos nocivas.



O documentário Coded Bias, da cientista e pesquisadora Joy Buolamwini, finalmente está acessível a todos os usuários da Netflix. Antes disso, tive a oportunidade de assisti-lo duas vezes, uma delas com direito a uma mesa de debate organizada pela distribuidora do documentário. Agora, após assistir ao documentário pela terceira vez, separei alguns pontos importantes para quem está tento um contato inicial com o tema. Em primeiro lugar, é preciso dizer que Coded Bias aborda de forma espetacular um conceito muito importante para a atualidade, que é a visão computacional. Uma área da Ciência da Computação que trabalha com imagens ou dados multidimensionais com o objetivo de extrair informações destes formatos.

A diretora do documentário, Joy Buolamwini, enquanto pesquisava no MIT Media Lab, decidiu realizar um projeto intitulado “espelho mágico”, e durante os testes percebeu que o software não a reconhecia, mas bastou colocar uma máscara branca e o software a reconheceu. Bum! O choque de estar frente a frente com algoritmos que não foram pensados para pessoas pretas aconteceu. O documentário explica tudo isso em detalhes, e é possível visualizar como ela, ao se deparar com um problema como este, antes de mais nada, começa a pesquisar a fundo as origens dos algoritmos e também a se conectar com pesquisadoras que estavam enfrentando os mesmos perigos. O segundo ponto, que só existe por causa do primeiro, é que o documentário coloca as diferentes realidades e impactos de softwares assim na sociedade. Ao mesmo tempo que Joy tenta entender os vieses nos algoritmos de reconhecimento facial, em Hong Kong acontece uma manifestação da sociedade civil contra o uso desta tecnologia em ambientes públicos. A ferramenta estava sendo utilizada lá para rastrear manifestantes, fato amplamente noticiado em 2019. Um caso similar aqui no Brasil é o uso de reconhecimento facial na segurança pública, que levanta questionamentos e gera controvérsias porque os resultados sempre apontam pessoas negras como suspeitas. Exibir diferentes realidades e impactos de uma tecnologia é essencial quando queremos levantar questionamentos e reflexões sobre os seus usos. É normal o discurso de que tecnologia foi pensada para tornar o dia a dia mais fácil, mas e quando acontece o contrário? O que fazemos?

O terceiro ponto que permeia o documentário é o fato de expressar como o Machine Learning é uma caixa preta até mesmo para os programadores. Diversos pesquisadores e cientistas renomados apontam os perigos da indústria utilizar IA a partir de um discurso de que tudo hoje tem que necessariamente usar essa tecnologia. Recentemente Michael I. Jordan, cientista considerado um dos pioneiros em Machine Learning deu uma entrevista para IEEE Spectrum, uma publicação importante da área criado pelo IEEE, na qual ele afirma que deveríamos parar de chamar tudo de “IA” ou utilizar o conceito para resolver todos os problemas. Segundo ele, “as pessoas estão ficando confusas sobre o significado da IA nas discussões sobre tendências tecnológicas — que existe algum tipo de pensamento inteligente nos computadores que é responsável pelo progresso e que está competindo com os humanos”. “Não temos isso, mas as pessoas estão falando como se tivéssemos”, conclui. Essa visão se complementa a como “avançamos” no discurso sobre área de IA e menos em repensar seu impacto prático na sociedade. O último ponto que destaco no documentário, especialmente para quem está dando o primeiro passo sobre ética em IA, são as inúmeras referências apresentadas. São pesquisadores, publicações e casos para ajudar a entender o contexto de tudo isso. Cathy O’Neil e Meredith Broussard são pesquisadoras que apresentam seus pontos de vista, elas estão há algum tempo apontando os perigos das tecnologias e redes sociais. Além disso, o documentário mostra as universidades e laboratórios que estão contribuindo com as pesquisas sobre ética em IA.

No Brasil ainda estamos dando passos pequenos, mas já temos inciativas importantes como a do Departamento de Informática da PUC-Rio — do qual tenho orgulho de ser aluna — que criou o grupo Valores Humanos e Ética na Informática (VHEI), formado pelos professores Markus Endler, Daniel Schwabe, Clarisse Sieckenius de Souza, Edward Hermann Haeusler, Marcos Kalinowski, Sérgio Lifschitz, Simone Barbosa, Anderson Silva e Júlio Leite. Há também disciplina com o mesmo nome do grupo que é dada na pós-graduação.

Iniciativas como o documentário Coded Bias e o grupo de pesquisa são importantes para trazer mais para perto dos pensadores e criadores de código a reflexão durante essas criações. Não basta apenas saber programar ou entregar uma solução, é preciso compreender os impactos das tecnologias. Além dos aspectos descritos aqui, outro ponto que me atraiu em Coded Bias é a linguagem e a forma escolhidas pela diretora. Traz um tom diferente daquele apresentado pelo “Dilema das Redes”, pois não são só pesquisadores falando, há participação da sociedade nas discussões. Em uma das cenas, Joy aparece conversando e tentando entender com moradores de uma região os motivos que os levam a não sentirem confiança no uso de reconhecimento facial na vizinhança.

O documentário deixa um recado claro para a sociedade e sobretudo para as Big Techs: não existe pensar solução tecnológica sem pensar as consequências para a sociedade e sem a participação da sociedade. Não existe IA inclusiva se ela não reconhece uma raça ou se ela só direciona determinadas ações para um gênero. É realmente injusto que as empresas criem e disponibilizem ferramentas sem saber as reais consequências e pensar nas prevenções.


Texto publicado no editorial MIT Technology Review Brasil


Como deve ser citado : DA HORA, Nina. Blog: Coded Bias: linguagem acessível para entender vieses em algoritmos . Rio de Janeiro, 30 de abril 2021. Disponível em: https://mittechreview.com.br/coded-bias-linguagem-acessivel-para-entender-vieses-em-algoritmos/

149 visualizações0 comentário

Posts recentes

Ver tudo

Resgate do passado é essencial para a conquista do futuro

Valorização da ancestralidade serve de base para construção da inovação Desde criança, vivencio a ansiedade pelo futuro —ou melhor, vivemos todos, né? Estamos sempre pensando à frente e, por vezes, de

Como proteger sua pesquisas e dados pessoais do Google Drive

*Bom este post se iniciou no twitter e decidir transformar em um post no blog* Bom há um tempo atrás eu tava procurando alternativas ao google drive para proteger minhas pesquisas, artigos e etc que a