Enfrentando os desafios constitucionais no uso da tecnologia de reconhecimento facial por agências indianas de aplicação da lei
- Criado em 01/03/2022 Por LinkLei
Por >Ameen Jauhar e Jai Vipra
A Tecnologia de Reconhecimento Facial (FRT) está se tornando uma palavra da moda globalmente e na Índia, entre os debates centrados em torno da ética da IA ​​e vigilância de alta tecnologia. FRT é uma >nomenclatura coletiva para qualquer sistema que realize funções de verificação 1:1, ou funções de monitoramento e identificação 1:n de indivíduos, usando mapeamento facial e/ou dados biométricos sensíveis. Embora a tecnologia conceitualmente possa ter uma variedade de casos de uso, sua crescente presença nas atividades de aplicação da lei e vigilância estimulou contenções vociferantes. Os argumentos parecem centrar-se em >violações de direitos constitucionais e legais , falhas tecnológicas que levam a >resultados imprecisos e até >preocupações regulatórias ou de governança .
Na Índia, vários estados vêm buscando o FRT em diferentes >aplicações do setor público . Especificamente, quase >vinte estados diferentes têm algum tipo de sistema FRT implantado por suas forças policiais locais. Existem várias preocupações contra esse reforço não regulamentado e não transparente do aparato de vigilância do Estado. A questão mais óbvia é a privacidade individual. Desde >o julgamento histórico de 2018da Suprema Corte da Índia, a privacidade informacional foi lida como parte do direito fundamental à vida e à liberdade garantidos pela Constituição indiana. Isso implica a autonomia de um indivíduo sobre quando suas informações pessoais podem ser coletadas, para que finalidade e como elas são processadas ou compartilhadas. No entanto, o design fundamental do FRT viola essa autonomia informacional – o FRT envolve algoritmos sofisticados e inteligentes que são treinados em extensos conjuntos de dados e, em sua aplicação, é interfaceado com bancos de dados existentes no governo. Em ambos os casos, o principal de dados que está sendo monitorado ou cujos dados biométricos fazem parte de tais conjuntos de dados perde o controle sobre os mesmos.
Ao mesmo tempo em que reconhece o direito à privacidade, a Suprema Corte também estabeleceu que não é um direito absoluto, abrindo uma exceção a ele em questões de ordem pública e segurança nacional. No entanto, cria essa isenção com freios e contrapesos, em vez de dar carta branca ao Estado . Estabelecendo um teste triplo de legalidade, objetivo legítimo e proporcionalidade, a Suprema Corte assegurou que ações arbitrárias de vigilância sejam impugnáveis.
Além da privacidade, há também a preocupação com as violações do >devido processo, condição sine qua non para a privação da vida ou da liberdade de qualquer indivíduo. Basicamente, qualquer violação das proteções do artigo 21 da Constituição indiana, que agora abrange o direito à privacidade, deve ser amparada por algum procedimento legal estabelecido por meio de legislação. O objetivo é impedir ações arbitrárias de exagero executivo. No entanto, o uso não regulamentado de FRT na aplicação da lei indiana contraria esse princípio do devido processo legal.
O FRT também tem riscos e falhas em seu design inerente que podem gerar resultados imprecisos. Um >estudo seminal conduzido por pesquisadores nos Estados Unidos descobriu que os algoritmos FRT tendem a ser tendenciosos e imprecisos na identificação de peles mais escuras, especialmente entre as mulheres. A questão da precisão e como certos algoritmos entregam um resultado final é uma preocupação geral profunda em qualquer discurso de ética da IA. No entanto, o que agrava o problema no uso do FRT é a consequência de alguém ser preso, acusado ou mesmo processado de forma errônea. Tais resultados não são hipotéticos, pois já foram >relatados casos de prisões indevidas. Nosso próprio >estudo mostrou que quando o FRT é introduzido em um sistema de policiamento que é tendencioso contra certos grupos de pessoas, é provável que exacerbe esses preconceitos. Descobrimos que o uso de FRT pela polícia de Delhi afetaria desproporcionalmente os muçulmanos porque as áreas muçulmanas estavam super-representadas nas áreas relativamente policiadas de Delhi. Quando os erros de IA atendem a vieses que não são de IA, ambos interagem entre si para agravar problemas para pessoas em risco.
Esse contexto significa por que a contestação do mês passado em um tribunal indiano é um momento decisivo. Em dezembro de 2021, um ativista de direitos civis residente em Hyderabad entrou com uma >petição de interesse público no Supremo Tribunal de Telangana. A petição contesta o uso não regulamentado e arbitrário do FRT pela polícia da cidade em Hyderabad e outras autoridades e entidades públicas em todo o estado. É o primeiro desafio constitucional ao uso do FRT e provavelmente moldará alguns princípios importantes para o uso responsável da IA ​​na Índia.
A principal alegação na petição é baseada no julgamento de Puttaswamy e seu teste de três pontas para determinar quando os estados podem infringir o direito à privacidade por questões de segurança nacional ou de aplicação da lei. A petição também sinaliza a falta de respaldo legislativo e a ausência de quaisquer normas regulatórias, como graves sinais de alerta para a aplicação contínua do TRF no estado. Também sinaliza as falhas de projeto do FRT e seus possíveis resultados imprecisos, como violadores do direito à igualdade, conforme previsto no >artigo 14 da Constituição.
A petição não levanta três questões significativas. Primeiro, a aplicação contínua do FRT especificamente na aplicação da lei tem implicações para o sistema de justiça criminal mais amplo. Assumindo a precisão e a constitucionalidade de tais tecnologias, não está claro como as entradas fornecidas por ela em uma investigação ao vivo ou exercício de vigilância podem ser usadas como evidência aceitável em um tribunal. A evidência eletrônica é regida por duas disposições do >Indian Evidence Act, 1872, ou seja, seções 65A e 65B. No entanto, essas disposições limitam-se a “registros eletrônicos” considerados admissíveis em lei – o mesmo sendo procurações em vez de documentos físicos. O FRT é comumente uma tecnologia algorítmica mais sofisticada e distinta dos registros eletrônicos. Sendo este o caso, é discutível que a iteração atual da >Lei de Provas não aborda como as tecnologias emergentes serão introduzidas no sistema de justiça criminal e qual é precisamente o seu valor probatório.
Os aplicativos FRT também violam >o compromisso da Índia de implantar IA responsável e segura . Crucial para a IA responsável é a ideia de confiança, mas a maneira opaca pela qual o FRT está sendo implantado pela aplicação da lei indiana o torna contraproducente para esse objetivo. Embora este não seja um argumento constitucional, certamente mostra que o uso de FRT precisa se >alinhar com a visão e as políticas mais amplas que orientam a implantação da IA ​​na Índia.
A tutela pleiteada na petição ao pleitear a inconstitucionalidade do uso do FRT está condicionada à inexistência de norma regulamentadora. A Suprema Corte tem uma oportunidade sem precedentes de dar alguns dentes substanciais às ideias enunciadas pela Suprema Corte em Puttaswamy e também reforçar as ideias de uso responsável da IA. Apesar de ser um desafio constitucional perante um Tribunal Superior estadual, o resultado deste caso servirá como referência para aplicações semelhantes de FRT em todos os estados da Índia. Também apresenta um momento oportuno para o governo estadual considerar uma reforma legislativa significativa para regular o uso de TRF no estado de Telangana. Qualquer que seja o caso, certamente traz à tona um debate atrasado, sobre vigilância estatal e reforma do mesmo.