Artigo discute segurança de dados dos(as) brasileiros(as) na Era da Inteligência Artificial

Pesquisadores da Unifesp e UFMT discutem adoção de sistemas de reconhecimento biométricos em ambientes públicos.

Pesquisadores da Unifesp e UFMT discutem adoção de sistemas de reconhecimento biométricos 

O artigo, escrito pelo professor Fabio Faria (ICT/Unifesp) em conjunto com o professor Raoni Teixeira (UFMT) e o mestrando em Ciência da Computação Rafael Januzi (ICT/Unifesp), foi aceito para publicação no Encontro Nacional de Inteligência Artificial e Computacional (ENIAC 2022) em agosto deste ano. O trabalho propõe uma discussão aprofundada sobre a confiabilidade e/ou vulnerabilidade de sistemas de reconhecimento biométricos baseados em faces e os problemas que podem emergir se o sistema não for bem projetado e gerenciado.

Fabio explica que, com os avanços das técnicas de processamento e análise de imagens, o uso de sistemas de reconhecimento biométrico em tarefas cotidianas já é uma realidade. “Dentre essas tarefas, estão desde um simples acesso aos dispositivos móveis até a marcação de amigos em fotos compartilhadas em redes sociais e as complexas operações financeiras em equipamentos de autoatendimento para transações bancárias”, exemplifica.

A adoção generalizada de técnicas de reconhecimento facial tem levantado uma série de preocupações relacionadas com o uso dessas tecnologias, principalmente em espaços públicos. “Uma das preocupações é que essas tecnologias venham a ser utilizadas para restringir liberdades e monitorar e/ou perseguir grupos minoritários e políticos”, sinaliza Fabio.

A discussão proposta no artigo foi motivada pelo anúncio feito, em julho de 2021, pelo governo brasileiro da compra de um sistema de reconhecimento biométrico para ser utilizado em todo o território nacional, denominado Solução Automatizada de Identificação Biométrica (ABIS).

No trabalho, os autores abordaram o ataque baseado em transformação de metamorfose (morphing), que é um dos tipos de ataques existentes na literatura para fraudar um sistema de autenticação de usuários e identificação de pessoas. Esse ataque foi escolhido por ser muito conhecido e utilizado por fraudadores(as) ao redor do mundo, combinando características de dois indivíduos para se obter uma imagem com características imprecisas que poderiam causar dúvidas em sistemas de reconhecimento biométrico.

Fabio pontua que as técnicas mais avançadas da área de inteligência artificial podem facilmente corromper esse tipo de sistema por meio da modificação na base de dados, substituição do algoritmo e alteração da pontuação, fazendo com que o sistema funcione de forma indevida e podendo influenciar os resultados obtidos.

Os autores criaram uma lista de dez questões para colaborar com a discussão sobre a segurança dos dados dos(as) brasileiros(as) na Era da Inteligência Artificial e o respeito à Lei Geral de Proteção de Dados Pessoais (LGPD), como a criação de base de dados em uma nação extremamente heterogênea, a falta de transparência e/ou padronização no processo de aquisição de imagens e a implantação de algoritmos de detecção de ataques em sistemas oficiais.

Para os pesquisadores, essa discussão prévia é de extrema importância para uma nação, já estando em foco em comissões de diferentes países desde 2018. “Nós esperamos que esse trabalho possa servir como apoio para as pessoas responsáveis pelos órgãos competentes e que elas possam tomar as melhores decisões no futuro”, finaliza Fabio.

Acesse o artigo completo aqui.