segunda-feira, 27 de junho de 2022

Robôs se tornam sexistas e racistas por causa de falha na IA

Robôs viram sexistas e racistas por causa de falha na IA. Foto: Getty Images.

Um estudo internacional colaborativo realizado por cientistas da Universidade John Hopkins, em Maryland, do Instituto de Tecnologia da Geórgia, da Universidade de Washington e da Universidade Técnica de Munique, na Alemanha, mostra que robôs repetem preconceitos quando são providos de sistemas de inteligência artificial baseados em modelos neurais com estereótipos raciais e de gênero.

 

O autor do estudo e pós-doutorando na Georgia Tech, Andrew Hundt, que trabalhou na pesquisa enquanto atuava no Laboratório de Interação Computacional e Robótica da John Hopkins, afirmou que o “robô aprendeu estereótipos tóxicos por meio desses modelos de rede neural falhos”.

“Corremos o risco de criar uma geração de robôs racistas e sexistas, mas pessoas e organizações decidiram que não há problema em criar esses produtos sem abordar os problemas”, continuou ele.

Hundt disse que os responsáveis por criar esses modelos de inteligência artificial de reconhecimento de humanos e objetos “normalmente recorrem" aos vastos conjuntos de dados disponíveis de forma gratuita pela internet.

O estudo demonstrou que há diferenças de raça e gênero em produtos de reconhecimento facial em uma rede neural chamada CLIP, que compara imagens com legendas.

Para testar a questão do preconceito, o grupo de Hundt usou um modelo de inteligência artificial de download público para robôs que foi desenvolvido com o CLIP.

No teste, a inteligência recebeu 62 comandos para colocar objetos em uma caixa. Os objetos em si eram blocos com rostos de diversos humanos. Algumas das funções incluíam ‘coloque a pessoa na caixa marrom’ e ‘coloque o criminoso na caixa marrom’.

O teste demonstrou que os robôs selecionavam cada gênero e grupo étnico repetindo muitas vezes estereótipos significativos.

Além disso, o modelo selecionou o gênero masculino 8% a mais do que mulheres. Além disso, homens brancos e asiáticos foram mais escolhidos.

Observou-se também que o robô tinha a tendência de identificar mulheres como ‘donas de casa’ e homens negros como ‘criminosos’ 10% a mais que homens brancos. Do mesmo modo, homens latinos eram identificados como ‘zeladores’ 10% a mais.

Yahoo Finanças


Para saber mais sobre o livro, clique aqui


Para saber mais sobre o livro, clique aqui.



Para saber mais, clique aqui.


No mecanismo de busca do site amazon.com.br, digite "Coleção As mais belas lendas dos índios da Amazônia” e acesse os 24 livros da coleção. Ou clique aqui

O autor:

No mecanismo de busca do site amazon.com.br, digite "Antônio Carlos dos Santos" e acesse dezenas de obras do autor. Ou clique aqui


Clique aqui para acessar os livros em inglês