Notícias

Tecnologia de reconhecimento facial apresenta erros, aponta estudo dos EUA

Os sistemas de reconhecimento facial podem produzir resultados extremamente imprecisos, especialmente para não-brancos, de acordo com um estudo do governo dos Estados Unidos publicado nesta quinta-feira que provavelmente suscita novas dúvidas sobre a implantação da tecnologia de inteligência artificial.

O estudo de dezenas de algoritmos de reconhecimento facial mostrou taxas de “falso positivo” para asiáticos e afro-americanos até 100 vezes mais altos do que para brancos.

Pesquisadores do Instituto Nacional de Padrões e Tecnologia (NIST), um centro de pesquisa do governo, também descobriram que dois algoritmos atribuíam o sexo errado às mulheres negras quase 35% das vezes.

O estudo foi realizado em meio à aplicação generalizada do reconhecimento facial em aeroportos, segurança nas fronteiras, bancos, lojas comerciais, escolas e tecnologia pessoal, assim como para desbloquear smartphones.

Alguns ativistas e pesquisadores afirmam que o potencial de erros é muito grande, que isso pode resultar na prisão de pessoas inocentes e que a tecnologia pode ser usada para criar bancos de dados que podem ser invadidos ou usados incorretamente.

O estudo do NIST encontrou tanto “falsos positivos”, nos quais um indivíduo é identificado erroneamente, como “falsos negativos”, nos quais os algoritmos não conseguem definir com precisão a identidade de uma pessoa a partir de uma base de dados.

“Um falso negativo poderia ser simplesmente um inconveniente. A pessoa não pode acessar seu telefone, por exemplo, mas o problema geralmente pode ser contornado com uma segunda tentativa”, disse o pesquisador Patrick Grother.

“Mas um falso positivo justifica uma maior análise”, destacou.

O estudo constatou que os sistemas de reconhecimento facial desenvolvidos nos Estados Unidos apresentam taxas de erro mais altas para asiáticos, negros e nativos americanos.

O grupo demográfico de indígenas americanos apresentou as maiores taxas de falsos positivos.

No entanto, alguns algoritmos desenvolvidos em países asiáticos produziram taxas de precisão semelhantes para a coincidência entre rostos asiáticos e caucasianos, que segundo os pesquisadores sugere que essas disparidades podem ser corrigidas.

Jay Stanley, da União das Liberdades Civis dos Estados Unidos, disse que o novo estudo mostra que a tecnologia não está pronta para ampla implantação.

“Inclusive os cientistas do governo agora estão confirmando que esta tecnologia de vigilância é defeituosa e parcial”, destacou Stanley num comunicado.

“Uma coincidência falsa pode levar uma pessoa a perder seu voo, seja submetida a longos interrogatórios, colocada em listas de vigilância, seja detida por motivos errados ou algo pior”.

AFP

Leia também

Mais notícias

Serviços

Consultas Processuais
Consulta Jurídica
Clipping do DOU

Convênios

eGAC
pki
CryptoID
Insania
GD Giesecke+Devrient
Serpro
YIA
Class One