Diversidade em equipes torna inteligência artificial mais justa

12 de novembro de 2020

Atualizado em: 22/12/2023

Gabriela Queiroz, da IBM, conta como as grandes empresas de tecnologia tentam mitigar efeitos adversos de dados enviesados

Novas iniciativas de empresas de tecnologia e da sociedade civil têm procurado aumentar a diversidade de quem cria as tecnologias usadas comercialmente, visando mitigar os vieses nos algoritmos de inteligência artificial. No Vale do Silício, criou-se até a figura do “eticista”, um profissional encarregado de avaliar se o uso da tecnologia obedece ou não a critérios éticos, segundo a brasileira Gabriela Queiroz, gerente sênior de engenharia e ciência de dados na IBM. A estatística deu uma palestra na Coda.Br, conferência anual que reúne criadores e usuários de dados, sobre as consequências práticas da inteligência artificial na vida cotidiana.

Sistemas que se utilizam da inteligência artificial estão cada dia mais ao nosso redor, seja na forma de traduções automáticas, na seleção dos conteúdos que uma pessoa verá em redes sociais ou até na rota calculada por aspiradores de pó inteligentes e isso só deve se tornar mais comum. Apesar de essas tecnologias tornarem a vida cotidiana mais fácil, afirmou a pesquisadora, é preciso levar em consideração que sempre há possíveis problemas embutidos nos dados ou no algoritmo.

“A tecnologia é profundamente moldada pelas desigualdades raciais, étnicas, de gênero e outras desigualdades prevalentes na nossa sociedade”, disse ela. “A tecnologia é ambígua; é racista, é discriminatória, é enviesada e não é justa”, afirmou, chamando a atenção para a necessidade de os profissionais da área estarem atentos às consequências do que programam.

Dados “imperfeitos”

Que os dados são imperfeitos não é novidade, mas apenas recentemente as grandes empresas de tecnologia começaram a agir sobre as consequências sociais disso. Sempre se criticou os sistemas que funcionam como “caixas-pretas”, dificultando o processo de compreender como uma decisão automática foi tomada. Mas foi preciso uma série de exemplos dolorosamente concretos para que essa se tornasse uma preocupação-chave das grandes empresas do setor. Algumas delas criaram núcleos para avaliar seus algoritmos, contando com profissionais especializados em avaliar se a ferramenta leva a decisões éticas – no Vale do Silício, são chamados de “eticistas”.

As principais implementações da inteligência artificial ocorrem com técnicas de aprendizado de máquina, que automatizam a descoberta de padrões nos dados coletados e aplicam suas conclusões a novos dados. Dados de abordagens policiais, por exemplo, alimentam algoritmos que buscam prever a possibilidade de um réu reincidir, o que nos Estados Unidos embasa sentenças mais duras ou mais leves

O problema é que, se a polícia aborda principalmente pessoas negras, em bairros pobres, essa informação acaba sendo interpretada pelo algoritmo como um sinal vermelho para julgar os próximos negros detidos em bairros pobres. Mesmo quando não há efeitos penais, pode haver exclusão: em alguns assistentes digitais que usam reconhecimento de voz, as cadências da fala dos negros norte-americanos não são propriamente reconhecidas, dificultando sua adoção do serviço. 

Diversidade nas equipes

Para Gabriela, os desenvolvedores de sistemas de inteligência artificial precisam se fazer algumas perguntas a cada projeto: 

  • “Será que devemos fazer isso?”
  • ”Qual será a implicação?”
  • Qual viés existe nesses dados e como mitigá-lo?”
  • “É possível retirar o software de circulação caso ele não se comporte como o esperado?”
  • “É possível reparar as pessoas possivelmente prejudicadas?”
  • “Quão diversa é a equipe que desenvolveu esse software?”

Hoje, na IBM, o que Gabriela menos faz é escrever códigos. Ela lidera uma equipe de desenvolvedores que buscam identificar e mitigar tendências discriminatórias em algoritmos. Eles criaram a ferramenta AI Fairness 360, que analisa algoritmos de aprendizado de máquina visando identificar e mitigar tendências discriminatórias que o código possa exacerbar, sem que o desenvolvedor tenha notado. 

Fora do expediente, ela é fundadora de duas iniciativas voluntárias que buscam atrair mais pessoas, especialmente mulheres e membros de minorias, para a programação. 

Na comunidade R-Ladies, o objetivo é fazer com que mais mulheres aprendam a utilizar a linguagem de programação R, criada para análise estatística e muito utilizada na ciência de dados. O grupo já tem representação em 54 cidades ao redor do mundo, incluindo no Brasil, e conta com mais de 70 mil participantes. 

Na AI Inclusive, criada no ano passado, o objetivo é capacitar e incluir pessoas de minorias de gênero na criação de sistemas de inteligência artificial. Ter mais mulheres em equipes de tecnologia, avalia, ajuda a mitigar em todas as etapas de criação os vieses que reproduzem discriminação. “É um campo completamente dominado por homens brancos”.

A mediadora de seu painel foi a desenvolvedora Nina da Hora, criadora do canal Computação da Hora e colunista da MIT Technology Review Brasil, recém-lançada versão brasileira de uma das mais tradicionais e conceituadas publicações do setor de tecnologia. Ela e Gabriela veem uma tendência de valorização de profissionais que tenham esse tipo de consciência além das habilidades práticas desse mercado. “Conseguir conectar mulheres, pessoas negras, pessoas LGBTQIA+, tudo em prol de um objetivo que, no final das contas, vai beneficiar todo mundo”, disse Nina. 

Nina lembra que alguns cursos de graduação em inteligência artificial passaram a incluir em suas ementas disciplinas como sociologia, filosofia e ética. Até recentemente, esses temas eram pouco comuns em cursos de computação, mas isso vem mudando. “Mais e mais vai fazer parte dos currículos, ou dos skills do cientista de dados, lembrar que um número não é apenas um número e pensar em suas implicações”, disse Gabriela.

A Coda.Br (Conferência Brasileira de Jornalismo de Dados e Métodos Digitais) foi organizada pela Open Knowledge Brasil e teve o apoio da Google News Initiative. Ao longo de uma semana, os participantes puderam assistir a diversos painéis sobre o uso de dados. Os principais estão disponíveis no canal de YouTube da organização. 

Em agosto, o Instituto Sidarta, em parceria com o Itaú Social, promoveu o webinar “Ciência de Dados: o futuro é agora!”. Entre outros temas, debate abordou a necessidade de ensinar conceitos de ciência de dados já na escola para preparar os jovens para o mercado de trabalho. Para saber mais, leia a matéria “‘Ciência de dados deve ser ensinada desde os anos iniciais’, diz Maitê Salinas”


Mentalidades Matemáticas

    Cadastre-se para aproveitar todos os nossos conteúdos gratuitos!

    *Ao preencher o formulário, concordo em receber comunicações de acordo com meus interesses e afirmo estar de acordo com a Política de Privacidade.
    **Você poderá alterar suas permissões de comunicação a qualquer tempo.
    Prometemos não utilizar suas informações de contato para enviar qualquer tipo de SPAM.

    Mentalidades Matemáticas

      Cadastre-se para aproveitar todos os nossos conteúdos gratuitos!

      *Ao preencher o formulário, concordo em receber comunicações de acordo com meus interesses e afirmo estar de acordo com a Política de Privacidade.
      **Você poderá alterar suas permissões de comunicação a qualquer tempo.
      Prometemos não utilizar suas informações de contato para enviar qualquer tipo de SPAM.

      Mentalidades Matemáticas

        Cadastre-se para aproveitar todos os nossos conteúdos gratuitos!

        *Ao preencher o formulário, concordo em receber comunicações de acordo com meus interesses e afirmo estar de acordo com a Política de Privacidade.
        **Você poderá alterar suas permissões de comunicação a qualquer tempo.
        Prometemos não utilizar suas informações de contato para enviar qualquer tipo de SPAM.