Como funciona o reconhecimento facial – e quais os dilemas por trás dele

Quando foi lançada, em 2010, a ferramenta Tag Suggestions do Facebook parecia mágica. Você postava uma foto com amigos e ela logo apontava para o rosto de alguém e checava: “Este é Fulano?”. Você podia confirmar ou negar (e daí indicar a pessoa correta).

Leia mais

A ferramenta funcionou por anos, até entrar na mira de discussões sobre privacidade e uso indevido de dados pessoais. Em 2021, foi descontinuada. A Meta, dona do Facebook, anunciou que apagaria os dados de mais de 1 bilhão de usuários. Era o maior banco de biometria facial do mundo.

Leia mais

Problema resolvido – só que não. Àquela altura, a Meta já havia usado os dados para criar o DeepFace, o primeiro sistema de reconhecimento facial a chegar perto de identificar rostos com a mesma precisão de um humano (1).

Leia mais

Hoje, essa tecnologia está por todo lado. Usamos para organizar fotos, desbloquear telas, acessar serviços públicos, autorizar pagamentos e controlar o acesso a condomínios e escritórios por todo o País.

Leia mais

E não é como se houvesse muita opção. Mesmo que você nunca tenha postado uma selfie na vida, é quase impossível que uma imagem do seu rosto não esteja armazenada em algum lugar, das filmagens de segurança de um supermercado às cópias do seu RG que você compartilhou por aí.

Leia mais

Pela Lei Geral de Proteção de Dados (LGPD), dados biométricos como rosto, impressões digitais, DNA e até tom de voz são dados pessoais sensíveis, e existem muitas exigências adicionais de segurança para coletar e armazenar dados desse tipo. Afinal, dá para trocar uma senha em minutos, mas não dá para fazer o mesmo com olhos, ouvidos, boca e nariz.

Leia mais

Diferentemente das impressões digitais e do DNA, a biometria facial pode facilmente ser coletada sem autorização. Entretanto, quase nunca damos um OK expresso para essa coleta – e, se damos, pouco sabemos sobre os termos de uso. Quando você topa ser fotografado para autenticar sua entrada em um prédio, sabe onde os dados ficarão armazenados, e por quanto tempo? Quem poderá acessar? Para que serão usados?

Leia mais
Leia mais

Esse é só o começo do problema. O reconhecimento facial é um sistema com falhas e vieses – mas que, ainda assim, tem sido cada vez mais usado pela segurança pública, nem sempre da melhor forma. Vamos mergulhar nessa discussão – mas, primeiro, é preciso entender como essa tecnologia funciona.

Leia mais

Cara a cara

Em uma ferramenta de reconhecimento facial, as distâncias entre pontos faciais e as proporções matemáticas entre elas são usadas para produzir um código que representa o seu rosto [veja mais no infográfico abaixo]. Esse tipo de cálculo inicial é o que todos os sistemas têm em comum – do celular às câmeras de rua.

Leia mais

Para desbloquear um app, seu smartphone faz o que se chama de verificação 1:1. É um processo relativamente simples: o sistema compara a imagem atual com uma pré-cadastrada. Para aplicações mais críticas, como bancos e o Gov.br, o sistema ainda aplica fatores de vivacidade, que tentam conferir se a imagem é de uma pessoa viva e real, e não de uma foto, de um vídeo manipulado ou até de uma pessoa disfarçada de outra.

Leia mais
Leia mais

A verificação 1:1 diz se você é o usuário correto para aquela conta, mas não entra no mérito de quem você é. Essa função é mais complexa e se chama identificação (ou reconhecimento 1:N).

Leia mais

É o que rola quando o padrão de um rosto é comparado com vários outros armazenados em um banco de dados massivo (daí o N, que indica um número indefinido). O algoritmo não dá uma resposta certeira, mas uma probabilidade de correspondência entre dois rostos.

Leia mais

Por fim, existe ainda a análise (ou classificação), que interpreta as expressões faciais. Em suma, a verificação diz: “Este rosto corresponde ao rosto autorizado a acessar esta conta”. A identificação diz: “Este rosto provavelmente pertence ao Fulano de Tal”. E a análise: “Este rosto parece ser de um homem e estar bravo”.

Leia mais

Não é um sistema perfeito, claro. Com jovens e idosos, por exemplo, cujas mudanças nos rostos são mais acentuadas e constantes, o reconhecimento facial funciona pior do que a média.

Leia mais

Esse, porém, é só um dos muitos vieses dessa tecnologia.

Leia mais

A maioria dos modelos foi treinada com bases de dados compostas sobretudo de homens brancos, e isso limita como o sistema interpreta traços e tons de pele. Como as mulheres também são sub-representadas, a intersecção de mulheres negras, especialmente as idosas, enfrenta as maiores taxas de erro (2).

Leia mais

Nos casos de alguns modelos que foram treinados majoritariamente com pessoas asiáticas, a imprecisão também é maior em relação a outros grupos étnicos (2). Isso se chama efeito outra raça, e não é um fenômeno só das máquinas: a mesma coisa acontece no cérebro humano quando temos dificuldade em diferenciar rostos de outras etnias. São vieses que, nas máquinas, surgem a partir de parâmetros internos e das referências de treinamento; nas pessoas, das nossas experiências e de quem mais enxergamos ao nosso redor.

Leia mais

Existe ainda uma questão óptica em jogo: peles mais escuras refletem menos luz do que peles mais claras – o que os físicos chamam de refletância. Os algoritmos se confundem com as mudanças que isso implica no contraste e na produção da imagem.

Leia mais
Leia mais

Sorria, você está sendo filmado

No início do texto, dissemos que o tratamento de dados biométricos é regido pela LGPD, que exige, entre outros requisitos, o consentimento dos usuários. Há uma grande exceção a essa regra, porém.

Leia mais

Sob o guarda-chuva da segurança pública, as câmeras de reconhecimento facial se espalharam pelo País, sem regulamentação específica. Em 2019, cinco estados brasileiros adotaram a tecnologia para encontrar foragidos e desaparecidos em espaços públicos.

Leia mais

A Bahia fez os primeiros testes em multidões no Carnaval. O sistema emitia um alerta ao detectar uma probabilidade maior que 90% de que um rosto pertencesse a um foragido. A pessoa, então, era abordada por policiais para verificação. Ao fim do primeiro ano, a taxa de prisões bem-sucedidas a partir de abordagens motivadas por reconhecimento facial oscilou entre 0,27% e 3,6%, dependendo do município e do evento (3).

Leia mais

O problema: seis anos após a expansão da tecnologia, não faltam histórias de pessoas abordadas por engano pela polícia – uma experiência que vai desde o constrangimento até violações graves de direitos humanos.

Leia mais

Em 2024, por exemplo, uma jovem negra foi parada na entrada de um evento de pré-Carnaval em Aracaju. Policiais à paisana pediram sua identidade para checar se ela era a mulher procurada que o sistema de reconhecimento havia indicado. Duas horas depois, houve uma nova abordagem – desta vez, com violência. Ela se desesperou, urinou em si mesma e foi levada algemada para um camburão. Ela acabou liberada com um pedido de desculpas quando a checagem confirmou o engano pela segunda vez (4).

Leia mais

Um erro de cálculo semelhante fez com que a polícia do Ceará divulgasse o rosto do ator norte-americano Michael B. Jordan – um homem negro e uma das maiores celebridades de Hollywood do momento – na lista de suspeitos de uma chacina que matou cinco pessoas na noite de Natal (5).

Leia mais
Leia mais

Desde 2023, a Lei Geral do Esporte tornou o reconhecimento facial obrigatório em estádios e ginásios esportivos com capacidade superior a 20 mil pessoas. Os objetivos são combater fraudes, cambistas, casos de violência e discriminação.

Leia mais

Em estádios de futebol, uma parceria com a CBF estabelece que os dados colhidos durante a compra de ingressos e o acesso ao estádio sejam cruzados com bases de dados de foragidos, desaparecidos e pessoas envolvidas em violência em jogos anteriores. Entre os torcedores, há quem sinta que a medida torna os estádios mais seguros e apropriados para famílias (6).

Leia mais

Nos dois anos de operação, só no estádio Allianz Parque, em São Paulo, 204 pessoas com mandados de prisão abertos já foram detidas, 130 foram pegas em flagrante descumprindo medidas cautelares e 253 desaparecidosforam identificados (6).

Leia mais

Os resultados do Allianz são só uma fração dos 471 projetos de monitoramento ativos em todo o país – que, potencialmente, vigiam 87,2 milhões de pessoas, ou 41% da população brasileira (7).

Leia mais

Os contratos de monitoramento são operados por uma miríade de instituições: governos municipais, estaduais, ministérios federais, polícias militares, guardas civis, companhias e clubes de futebol. E cada uma delas precisa contratar uma empresa que forneça a logística e os softwares.

Leia mais

Essas empresas podem tanto oferecer ao cliente o algoritmo que faz o cruzamento dos dados quanto identificar a pessoa por meios próprios. É o caso da Clearview, que foi banida e multada em vários países da Europa por construir seu banco de dados com 3 bilhões de fotos de redes sociais, inclusive de crianças (8).

Leia mais

Apesar disso, no Brasil, o Ministério da Justiça e Segurança Pública, o Ministério Público de Minas Gerais e o Senado Federal contratam a Clearview para identificar pessoas.

Leia mais

“Nossas imagens muito provavelmente estão nesse banco de dados, sendo utilizadas por uma empresa privada para obter recursos públicos, que nós pagamos com nossos impostos, para operar uma tecnologia que tem todos esses problemas de ordem ética e legal”, diz Gabriel Saad Travassos, defensor público federal e doutorando em ciências criminais na PUC-PR.

Leia mais

Em função do sigilo e das exceções concedidas à segurança pública, é difícil saber exatamente como acontecem os contratos e a coleta de dados. O Centro de Estudos de Segurança e Cidadania (CESeC) conduz um projeto especial sobre o tema, O Panóptico, que monitora todas as iniciativas de reconhecimento facial do País.

Leia mais
Leia mais

Pablo Nunes, doutor em ciência política e diretor do projeto, explica que a segurança pública brasileira sofre com falta de transparência crônica. É difícil saber informações básicas, como as empresas contratadas, os softwares utilizados, onde os dados estão e por quanto tempo eles ficam armazenados.

Leia mais

Do lado das polícias, há ainda menos registros sobre as formas de uso, as taxas de acerto, e informações demográficas sobre os atingidos. Em geral, os casos em que rola um “falso-positivo”, como o da mulher de Aracaju, nem sequer entram nos registros oficiais.

Leia mais

Diante da escassez de dados, o Panóptico só conseguiu mapear o custo de 33% das iniciativas de reconhecimento facial do País, que custaram R$ 2,3 bilhões. Mais da metade dos investimentos aconteceu na Bahia e no Rio.

Leia mais

“Em todos os casos estudados, nenhum dos estados tem provas de que o reconhecimento facial significou redução de indicadores de criminalidade”, diz Nunes. Os mais de R$ 671 milhões investidos pelo Rio de Janeiro resultaram em 500 prisões (7) – R$ 1,3 milhão por prisão. Em comparação, há 719 prisões por semana, em média, no estado (9).

Leia mais

Compartilhe essa matéria via:

Leia mais

 

Leia mais

O Grande Irmão

O nome do projeto do CESeC vem de um conceito proposto no fim do século 18 pelo filósofo inglês Jeremy Bentham. “Panóptico” seria a estrutura ideal para maximizar a vigilância em cadeias (mas que também se aplicava para escolas, fábricas ou hospitais).

Leia mais

Eis a ideia de Bentham: o prédio da penitenciária precisaria ser no formato cilíndrico. No centro do pátio principal, haveria uma torre; em volta, as celas iluminadas. O guarda na torre poderia ver todas as pessoas nas celas – mas os presos não seriam capazes de saber quando estariam sendo observados.

Leia mais

O intuito do panóptico, então, é condicionar o comportamento das pessoas, como se estivessem sendo vigiadas o tempo todo. Algumas prisões no mundo chegaram a ser construídas com o princípio em mente.

Leia mais

No século 20, “panóptico” parou de ser apenas nome de prédio e foi transformado em metáfora pelo filósofo francês Michel Foucault. Ele usa o conceito para explicar o controle social – que, segundo ele, não era mais exercido pela violência direta, mas pela vigilância.

Leia mais

Em vez de castigos públicos e visíveis, o controle acontece de forma mais sutil: Foucault defendia que as pessoas se comportavam como se estivessem sempre sendo observadas, criando um senso de disciplina interna. E olha que ele formulou essa teoria nos anos 1970, décadas antes da difusão da internet.

Leia mais
Leia mais

Foucault nem poderia sonhar com a eficiência e a onipresença das ferramentas de vigilância que temos hoje. E Bentham teria adorado o ditado “quem não deve não teme”, que sempre aparece como argumento de quem acha que a hipervigilância só é um problema para quem tem problemas com a Justiça.

Leia mais

Mas não é preciso ter culpa no cartório para estar na mira das câmeras de reconhecimento facial. Se hoje você é considerado inocente, não quer dizer que vai ser assim para sempre.

Leia mais

“Uma imagem pode ser utilizada a qualquer momento no futuro”, diz Travassos. “Criminalizar condutas é um processo político: a capoeira já foi crime e, hoje, é um direito fundamental.” Mas o inverso também pode acontecer. “E se, daqui a pouco, as atuais manifestações culturais e políticas que exercemos sofrerem algum tipo de represália? Nós seremos identificados?”

Leia mais

Esse dilema não é novo para alguns ativistas. Diante da profusão de smartphones, começaram a surgir novas tentativas de impedir a identificação durante manifestações. Em 2010, o artista Adam Harvey criou um tipo de camuflagem facial chamada CV Dazzle (algo como “confundidor de visão de computador”), em que maquiagens e penteados inesperados impediam a máquina de reconhecer que ali havia um rosto.

Leia mais

Hoje, com o avanço da tecnologia, não é garantia que os métodos de Harvey ainda funcionem. Mas outras técnicas mais avançadas têm bons resultados, focadas em modificar pequenas partes das imagens para enganar a IA [veja mais no infográfico abaixo].

Leia mais

 

Leia mais

 

Leia mais
Leia maisLeia mais

 

Leia mais

Chamadas de ataques adversariais, elas levam o jogo do CV dazzle a outro nível: podem fazer a máquina acreditar que ali há o rosto de outra pessoa. São experimentos teóricos, mas que possibilitam usar acessórios físicos ou ferramentas digitais para convencer uma IA de que você é a Xuxa, a Marina Silva ou o seu chefe. Seja qual for a sua cara, e de forma imperceptível para os olhos humanos .

Leia mais

O parecer da ONU é utilizado por dezenas de movimentos mundo afora para ressaltar a sensibilidade dos dados biométricos. Além de todas as problemáticas das aplicações em segurança pública, os grupos argumentam que o próprio armazenamento dessas informações já é um risco, sobretudo nas mãos de governos autoritários ou de pessoas mal-intencionadas.

Leia mais

No Brasil, mais de 50 entidades da sociedade civil se reúnem no movimento Tire Meu Rosto da Sua Mira. Eles se articulam com outros movimentos sociais para reivindicar o banimento completo do uso do reconhecimento facial em segurança pública.

Leia mais

O fim dessa prática poderia ser instituído por lei (de qualquer instância) ou por uma decisão do STF, se fosse constatado que direitos fundamentais estão sendo violados. E nem precisaria ser um banimento total.

Leia mais

Na União Europeia, por exemplo, há desde o ano passado uma regulamentação que proíbe o monitoramento biométrico remoto em tempo real, exceto em casos críticos previamente definidos – como ameaças a hospitais e centrais elétricas. No Brasil, daria para usar a tecnologia para proteger terras indígenas de invasores.

Leia mais

As exceções na Europa são amplas, mas ainda é um sistema mais regulamentado e transparente que o brasileiro. Por aqui, a tecnologia segue em expansão – mas ainda não dá para saber qual o software usado em 95% dos projetos ativos de monitoramento (7).

Leia mais

Talvez, um dia, seja possível usar ferramentas de reconhecimento facial para aprimorar o trabalho da polícia e achar desaparecidos, sem vieses de raça, idade e gênero – e com uma coleta de dados ética. Até lá, melhor puxar o freio, ou a próxima parada poderá ser a de uma realidade de vigilância constante tão estressante quanto o Big Brother, sem um prêmio no final.

Leia mais

Agradecimentos: Augusto Jobim do Amaral, professor das pós-graduações em Ciências Criminais e em Filosofia da PUC-RS; Horrara Moreira, advogada popular, integrante do Conselho Municipal de Proteção de Dados e da Privacidade do Rio de Janeiro e coordenadora da campanha Tire Meu Rosto da Sua Mira; Pedro Saliba, advogado e sociólogo, pesquisador da Data Privacy Brasil.

Leia mais

Fontes: (1) artigo “DeepFace: Closing the gap to human-level performance in face verification”; (2) artigo “Review of demographic fairness in face recognition”; (3) relatório “O sertão vai virar mar: Expansão do reconhecimento facial na Bahia”; (4) reportagem da Carta Capital “Erros em série expõem fragilidade do reconhecimento facial como ferramenta de combate ao crime”; (5) notícia do g1 “Foto de astro do cinema Michael B. Jordan aparece em lista de procurados pela polícia do Ceará”; (6) reportagem da Veja “Marcação cerrada: como a biometria aumentou as prisões em estádios de futebol”; (7) monitor do projeto O Panóptico – Monitor do reconhecimento facial no Brasil, dados coletados em 7 de novembro; (8) artigo “Beyond surveillance: Privacy, ethics, and regulations in face recognition technology; 9) notícia do Uol “RJ tem 17,4 mil presos além da capacidade; menos de 10% estudam”; (10) artigo “Hidden adversarial attack on facial biometrics – a comprehensive survey”; (11) Resolução 48/4 da ONU “Right to privacy in the digital age”.

Leia mais

AS MAIS LIDAS DA SEMANA

Leia mais

Toda sexta, uma seleção das reportagens que mais bombaram no site da Super ao longo da semana. Inscreva-se aqui

Leia mais

Cadastro efetuado com sucesso!

Você receberá nossas newsletters pela manhã de segunda a sexta-feira.

Leia mais

 

Leia mais

 

Leia mais

[Por: Superinteressante]Source link

Leia mais

Gostou deste story?

Aproveite para compartilhar clicando no botão acima!

Visite nosso site e veja todos os outros artigos disponíveis!

MNegreiros.com