Para reforçar a segurança dos Jogos Olímpicos de Paris 2024 as autoridades vão utilizar câmaras de segurança geridas por algoritmos, mas garantem que nenhum dos programas permitirá o reconhecimento facial, que é uma prática já testada em França que gerou polémica.

O sistema baseado em algoritmos utiliza um programa conectado a câmaras que analisa sequências de vídeo para identificar acontecimentos ou comportamentos suspeitos/de risco, antes de alertar um operador em tempo real.
Já o reconhecimento facial foca nos detalhes, uma vez que permite analisar os traços faciais de uma pessoa filmada ou fotografada e comparar as imagens com uma base de dados, em tempo real.

Durante o carnaval de Nice em 2019, um "software" desta tecnologia, desenvolvido por engenheiros israelenses, permitiu encontrar quase 50 voluntários que haviam fornecido suas fotos, entre 5.000 pessoas, sendo que algumas eram antigas o que ajuda a ilustrar a capacidade de reconhecimento do programa.

Porém, a cidade da turística Riviera Francesa, que tem quase 4.500 câmaras de vigilância de alta precisão, quer "ir além" de um mero teste, mas vê a vontade esbarrar na CNIL, que é a autoridade encarregada de zelar pelas liberdades na era digital.

Os franceses já aceitam "ser vigiados 24 horas por dia por Xi Jinping [presidente chinês] ou por Joe Biden [presidente dos EUA], segundo a marca de telemóvel que usam", defende o presidente de Nice, Christian Estrosi, relativamente ao receio da CNIL.

Para Estrosi, a inteligência artificial (IA) poderia ter ajudado a detetar os movimentos do autor do atentado no Passeio dos Ingleses em 2016, que originou 86 mortos. "Apenas as pessoas identificadas como perigosas seriam alvo de uma vigilância permanente", assegura o líder.

A tecnologia de reconhecimento facial ainda não tem uma regulamentação jurídica definida mas, segundo a CNIL,  deve respeita "o marco de proteção de dados pessoais", previsto por duas normas europeias: o regulamento geral RGPD e a diretriz "Polícia-Justiça" de 2016.

Esta última norma permite o uso da tecnologia por parte das "autoridades competentes" em caso de "absoluta necessidade". A polícia utiliza-a em investigações para consultar a base de antecedentes criminais, que contém milhões de arquivos de autores e vítimas.

O sistema de passagem rápida nas fronteiras externas da União Europeia também usa este método no controlo biométrico de passaportes em determinados locais e sob determinadas condições.

"Oportunidade desperdiçada"

 A futura regulação europeia sobre inteligência artificial, cuja legislação final é esperada em abril, proíbe "o uso da identificação biométrica à distância em tempo real nos espaços públicos", embora preveja exceções.
O reconhecimento facial pode ser utilizado para "dezasseis crimes", segundo um porta-voz da Comissão Europeia: terrorismo, violação, tráfico de seres humanos, assassinato, tráfico de drogas, associação criminosa, entre outros.

Uma "autoridade judicial ou administrativa independente" pode autorizar o uso em 24 horas e os países interessados em adotar a prática devem aprovar uma lei federal, com base na regulamentação.
A ONG lamentou, no entanto, uma "oportunidade desperdiçada". "Era a ocasião para proibir sistemas perigosos e incompatíveis com os direitos humanos, como o reconhecimento facial", lamentou Katia Roux, membro francesa da organização.

No caso das câmaras geridas por algoritmos, o Parlamento francês aprovou em abril de 2023 uma lei que regulamenta a utilização durante os Jogos Olímpicos. Esta tecnologia será avaliada em 2025 por uma comissão de utilizadores e políticos. Os dispositivos poderão ser utilizados para identificar oito tipos de situações que impliquem um "risco de ato de terrorismo ou uma ameaça grave à segurança das pessoas": cruzar uma zona proibida, circular no sentido contrário, presença ou uso de armas, incêndio, tumulto, pessoa no chão, fluxo excessivo e pacote abandonado.

A Amnistia criticou a experiência durante os Jogos de Paris2024, considerando que o uso destas tecnologias "não tem retorno". Foram testadas em Londres 2012 e agora é usada pela polícia britânica para identificar "potenciais criminosos antes mesmo de cometerem crimes", advertiu.