IA nos tribunais: o bom, o preocupante e o assustador
- Criado em 31/01/2020 Por LinkLei
Um painel na Reunião Anual da Ordem dos Advogados do Estado de Nova York analisou as maneiras pelas quais a IA pode se beneficiar, complicar e sufocar a maneira como os juízes e seus tribunais funcionam.
Inteligência artificial não significa o fim da indústria legal (ou do mundo) como a conhecemos. Mas também não criará utopia em que novos patamares de insight e eficiência fechem o acesso à lacuna na justiça e tirem grande parte das suposições da profissão de advogado. A realidade do futuro da IA, e presente, é muito mais ambígua e complicada do que isso.
Na “Emerging Technologies in Litigation” na Reunião Anual da Ordem dos Advogados do Estado de Nova York, juízes locais e federais, um pesquisador de descoberta eletrônica e um advogado de tecnologia emergente se reuniram para discutir como a IA é, e provavelmente será, usada nos tribunais de hoje .
Enquanto alguns casos de uso apresentavam benefícios em potencial, outros eram problemáticos e um era absolutamente assustador. Aqui estão alguns destaques do painel:
Lugar da AI nas decisões judiciais
O uso de AI em pesquisa jurídica é uma área que tem obtido uma boa quantidade de atenção no mundo jurídico, tanto para melhor e pior. Gail Gottehrer, fundadora de um escritório de advocacia com foco em tecnologias emergentes, explicou que essas plataformas de pesquisa usam decisões judiciais passadas para "prever comportamentos e resultados que diferentes estratégias jurídicas produzirão".
E, até certo ponto, ela disse, isso não deveria ser contencioso. "A lei é baseada em precedentes, [e] se o seu caso for semelhante e tiver fatores semelhantes a outro caso, os resultados não deverão ser muito surpreendentes".
Ainda assim, Gottehrer observou que há um limite para a eficácia dessas previsões. “Os casos variam de acordo com os fatos, os fatos que as pessoas veem como significativos, e esse é o julgamento, que é o que a IA não faz. … Então, isso garantirá um resultado para prever o que um juiz fará? Eu diria que não.
Ainda assim, alguns estavam otimistas de que esse caso de uso da IA poderia finalmente ser benéfico. "Eu adoraria saber como vou decidir sobre qualquer caso, porque estou muito ocupado", brincou a juíza Melissa Crane, do Tribunal Civil da cidade de Nova York.
Embora previsões completamente precisas possam ser uma proposta distante, essas ferramentas jurídicas de pesquisa podem oferecer informações sobre como um juiz governou no passado, que Maura Grossman, professora da Universidade de Waterloo, em Ontário, observou que pode ser útil para “trazer explicações explícitas”. preconceitos à atenção. ”
"Acho que isso pode ser um viés", disse ela. "Não seria útil saber se você decide [certos] casos exclusivamente para demandantes?"
Obviamente, a IA de hoje não apenas coleta e prevê decisões judiciais, mas, em alguns casos, toma essas decisões por si só. Katherine Forrest, ex-juíza distrital dos EUA no Distrito Sul de Nova York, apontou para os juízes holográficos atualmente na China. "Eles implementaram a utilização de alguns tribunais da Internet, onde eles têm juízes de IA e litigaram para julgar milhares de casos, e a Estônia acabou de anunciar que está seguindo o exemplo de pequenas causas".
Enquanto Forrest expressou preocupação com quanta discrição a AI tem nesses julgamentos, Gottehrer observou que pode haver alguns casos em que os juízes da IA podem fazer sentido. "Eu acho que existe um lugar para isso, algo que é muito pesado para regras", disse ela, apontando para os tribunais de trânsito onde uma determinada infração poderia automaticamente sofrer uma penalidade como exemplo. "Se você estiver dirigindo tão rápido acima dos limites de velocidade, desculpas não importam."
Avaliação de risco baseada em IA da 'caixa preta'
Uma das implantações mais controversas da IA nos tribunais é o uso de ferramentas de avaliação de risco. Embora muitas dessas ferramentas não aproveitem a IA e sejam usadas principalmente para determinar qual programação e supervisão um infrator recebe, algumas como o Perfil de Gerenciamento Correcional de Ofensores para Sanções Alternativas (COMPAS) são uma história diferente. Crane observou que o COMPAS usa a IA para calcular as pontuações de risco, comparando “as respostas do réu a perguntas e fatores pessoais em relação a um grupo de dados nacional e obtém uma pontuação”.
As pontuações de risco da ferramenta foram usadas para informar decisões de sentença, mais famosas em Wisconsin, onde um caso da Suprema Corte do estado, Loomis vs. Wisconsin , permitiu que os juízes continuassem usando a ferramenta desde que entendessem seus limites e as pontuações de risco não fossem determinantes para a sentença.
Mas o caso pouco fez para conter preocupações em torno do uso do COMPAS. "Ninguém sabe como o COMPAS avalia os fatores de risco ou determina as pontuações", disse Crane, observando que os algoritmos por trás das ferramentas são proprietários e não podem ser verificados independentemente do desenvolvedor do COMPAS.
Ainda assim, embora não se saiba como a IA por trás do COMPAS funciona, sabe-se que a ferramenta de avaliação de risco calcula as pontuações de risco com base em dados nacionais. Gottehrer disse que isso também suscita preocupações, dadas as diferenças sociais e econômicas de várias demografias em todo o país.
Ela explicou que uma ferramenta de avaliação de risco pode associar a falta de moradia a um risco maior de não comparecer ao tribunal para uma audiência. Mas alguém na cidade de Nova York, onde os custos de moradia são mais altos, ainda pode ter um telefone, estar acessível e ter maior acesso ao transporte público do que alguém em outras áreas do país, disse ela.
Forrest também argumentou que é preocupante usar os dados da taxa nacional de detenção como padrão, porque esses dados podem "variar significativamente de acordo com o período de tempo". Como exemplo, ela observou que "alguns argumentariam que o tempo de parar e brincar em Nova York resultou em as prisões em excesso de homens negros ... por isso, se você estiver usando um conjunto de dados que está sendo executado por um período de tempo ... isso será considerado normativo. ”
A IA melhor deixada de fora dos tribunais
Há um exemplo de IA em que juízes e advogados provavelmente não querem ir a um tribunal perto deles: deepfakes - conteúdo de vídeo e áudio fraudulento, mas convincente, criado por ferramentas de edição de IA - não são apenas uma preocupação para empresas e funcionários eleitos. Eles também podem atormentar os funcionários do tribunal com dúvidas sobre a veracidade de certas evidências multimídia.
“Os Deepfakes são um pesadelo probatório”, disse Forrest, acrescentando: “imagine o que isso fará com [nossa capacidade de] utilizar vídeo, [agora vamos] dizer: isso realmente aconteceu? ... Isso é AI, a IA permitiu isso. ”