3 melhores práticas de inteligência artificial que os advogados devem aconselhar os clientes
- Criado em 11/04/2022 Por Caroline Francescato
Desde conhecer seus vieses algorítmicos em vez de se concentrar em eliminá-los, até monitorar constantemente sua ferramenta de IA, os advogados oferecem dicas sobre as melhores práticas que os advogados precisam informar a seus clientes ao usar a IA.
Isha Marathe
Repórter de Tecnologia Jurídica
À medida que a colcha de retalhos de leis e regulamentos em torno da inteligência artificial (IA) se expande em todos os estados e países, os pedidos de transparência adicional de algoritmos, uma verificação de estratégias tendenciosas de recrutamento e emprego e conversas sobre medidas adequadas de avaliação de risco relacionadas a ferramentas de IA aumentaram Ao longo do último ano.
Durante a sessão virtual “Gerenciamento de Riscos no Cenário Regulatório Global Dinâmico para Produtos e Serviços de IA” do simpósio do Practicing Law Institute (PLI), em 7 de abril, advogados e especialistas destacaram as implicações legais da IA como ferramentas nos negócios.
Depois de dar uma visão geral dos desenvolvimentos regulatórios relativos à IA em todo o mundo, o advogado da Perkins Coie, Charlyn Ho, o conselheiro geral da Microsoft, Benjamin Glatstein, e o conselheiro de produtos da Apple, Arjun Rangarajan, discutiram as melhores práticas de IA que os advogados precisam conscientizar seus clientes, pois muitos aguardam leis mais abrangentes .
1. Use uma lei existente como referência para os regulamentos de IA da sua organização
Na ausência de um regulamento federal abrangente sobre IA, os advogados devem aconselhar seus clientes a criar um sistema sólido dentro de sua organização, completo com funções e responsabilidades atribuídas para conformidade com os regulamentos de IA existentes.
“O GDPR [Regulamento Geral de Proteção de Dados], o avô das leis abrangentes de privacidade do consumidor, foi realmente a estrutura na qual muitas empresas basearam sua conformidade com privacidade e segurança de dados”, disse Ho. “Então você pode querer pensar se a Lei de IA [da União Europeia] ou alguma outra lei [é para] sua empresa, dependendo do seu setor, onde você estabelecerá sua referência. Ou [você pode] adotar um padrão-ouro [para] espelhar a mais alta métrica de conformidade, embora possa não estar claro agora o que pode ser.”
2. Conheça seus vieses algorítmicos
O assunto dos vieses da IA que afetam a contratação, o recrutamento e outros processos ganhou força nos últimos anos. Em vez de encontrar sistemas de IA sem nenhum viés, os advogados devem aconselhar seus clientes a estarem cientes de quais vieses sua tecnologia pode ter para mitigar os riscos.
Glatstein observou que, embora um viés de proxy de gênero ou raça – um fenômeno que acontece quando um algoritmo produz repetidamente resultados preconceituosos – possa não ser tão prejudicial se uma empresa estiver direcionando anúncios para alguém, será extremamente problemático se uma empresa estiver usando uma IA ferramenta de atribuição de crédito à habitação.
“Nenhum sistema é, como costumamos dizer, completamente livre de preconceitos”, disse Glatstein. “Os advogados precisam de uma visão holística” do que são os conjuntos de dados usados [no treinamento da ferramenta de IA], quais são os proxies para gênero e raça ou alguma outra característica protegida “antes que você possa começar a aconselhar os clientes sobre quais medidas de mitigação corretas podem ser ser."
3. Monitore continuamente seu sistema de IA
Os advogados devem aconselhar as empresas a definir quais são suas métricas de desempenho para cada componente de um sistema de IA que escolherem usar. Todos os palestrantes do simpósio PLI enfatizaram que é vital que os usuários possam avaliar como seu sistema de IA é treinado, quais conjuntos de dados ele usa e monitorá-lo ao longo do caminho para garantir que seu desempenho não dê errado.
“A IA está realmente atendendo às métricas anti-viés que você disse?” disse Ho. “Você não pode medir isso a menos que tenha as métricas, o que remonta a ter um plano e projetar o sistema de uma maneira que você possa medir essas coisas e atualizar a IA se ela não estiver atendendo [seus objetivos].”
A criação de um sistema de avaliação de risco sólido é vital não apenas para cumprir as leis existentes ou futuras, mas também para cumprir o próprio conjunto de obrigações éticas de uma empresa ao usar a IA, observou Ho.
“Você quer se manter atualizado sobre os desenvolvimentos, monitorá-los e ter uma supervisão [humana] contínua sobre o desempenho da [IA]”, disse Ho.