Para reguladores de IA, pode ser ampliado ou ir para casa
- Criado em 22/09/2021 Por LinkLei
Os reguladores provavelmente continuarão ampliando a definição de IA, pois procuram minimizar o risco que a tecnologia pode representar em áreas-chave como segurança, aplicação da lei ou contratação corporativa.
Por Frank Ready
Depois de muitos anos e campanhas de marketing de produto, definir um conceito como inteligência artificial sem ir muito amplo ou estreito ainda é um negócio complicado tanto para os órgãos governamentais quanto para os consumidores. Mas os reguladores que buscam mitigar os riscos que a IA pode representar em áreas como educação, aplicação da lei ou mesmo decisões de emprego, tudo sem impedir a inovação tecnológica, podem errar consistentemente pelo lado do "amplo".
Este pode já ser o caso com a proposta inicial de Artificial Intelligence Act (AIA) apresentada pela Comissão Europeia em abril passado. A legislação proposta tenta enfiar a agulha entre uma visão geral ampla e estreita, definindo IA de acordo com quatro categorias de risco diferentes: risco inaceitável, alto risco, risco limitado ou risco mínimo.
“Já recebeu algumas críticas sobre se a definição é ou não muito ampla. E isso provavelmente está certo ”, disse Meribeth Banaschik, parceira dos serviços forenses e de integridade da EY e convidada do episódio desta semana do podcast com tema jurídico“ That Tech Pod ”.
Bananschik disse aos anfitriões Laura Milstein e Gabi Schulte que, de acordo com a proposta apresentada pela Comissão Europeia, muitos casos de uso de IA provavelmente cairiam no grupo de “risco mínimo”, que é onde os reguladores “não querem se envolver”. No entanto, outros - como ferramentas de IA voltadas para a educação, segurança ou espaços de emprego, por exemplo - provavelmente implicariam em controles mais rígidos, pedidos de documentação e mais interesse regulatório em torno de qualquer potencial viés contido em um algoritmo.
No entanto, uma abordagem baseada em risco para a classificação de IA ainda pode acabar sendo um pouco ampla demais - ou pelo menos perder algumas das nuances sutis que distinguem as muitas ferramentas que invocam o uso da tecnologia. Por exemplo, durante sua aparição em “That Tech Pod”, Banaschik destacou a diferença entre a tomada de decisão semiautomática - onde um ser humano ainda está envolvido em intervalos diferentes - e a tomada de decisão completamente automatizada. Ela espera que essa distinção desempenhe um papel fundamental no discurso em torno do AIA no futuro.
“Provavelmente haverá muitas discussões sobre o que é IA e o que você faz quando os humanos contribuem com certas peças em comparação com quando um algoritmo toma suas próprias decisões sem qualquer ajuda dos humanos”, disse ela.
Por mais que tentem, essas discussões podem não ser capazes de acompanhar a forma como os consumidores, a indústria jurídica ou mesmo os reguladores concebem a IA. Oliver Yaros, sócio da Mayer Brown, observou que a forma como a inteligência artificial é usada e pensada está mudando rapidamente.
Considerando que um conjunto mais restrito de regulamentos poderia permitir às empresas de tecnologia a flexibilidade necessária para acompanhar essas mudanças, Yaros apontou que órgãos de governo como a UE podem considerar uma abordagem mais ampla chave para garantir que as inovações se desenvolvam "da maneira certa" e com o “limite de risco correto” em mente. Mas mesmo a percepção de risco pode aumentar e diminuir com o tempo.
“Coisas que antes eram consideradas inovadoras e talvez arriscadas, com o tempo serão vistas como mais mundanas e talvez menos arriscadas em comparação com coisas novas que estão surgindo. E eu acho que com o tempo, nossa compreensão do que a IA pode ser, e quais são as áreas de risco e quais são as áreas menos arriscadas, informará nossa abordagem sobre o que realmente é IA e como deve ser regulamentada ”, disse ele.
Ainda assim, não é necessariamente certo que os frutos dessa discussão tornarão mais fácil definir IA. Ian Nolan, cofundador e CEO da Brightflag, plataforma de gerenciamento de gastos legais com tecnologia de IA, opinou que, no futuro, as pessoas vão parar de falar sobre software de IA ou software de aprendizado de máquina e apenas falar sobre software.
“Os elementos de IA e [aprendizado de máquina] se tornarão onipresentes no futuro e, portanto, será muito difícil definir os elementos de software que estão relacionados à IA e quais não estão. Então, isso complica a questão da regulamentação até certo ponto ”, disse ele.
No entanto, Nolan não espera que uma abordagem ampla para regulamentar a IA se torne “onerosa” - pelo menos em certos ramos da tecnologia jurídica. Isto pode ser especialmente verdadeiro se a abordagem baseada no risco que está a ser ponderada na UE for vitoriosa. “No grande esquema da humanidade, [tecnologia de gerenciamento de gastos legais] é uma aplicação de baixo risco”, disse ele.
Para ter certeza, não é apenas um debate existencial em torno da natureza da IA que pode estar pressionando os órgãos de governo a favorecer uma abordagem ampla para a regulamentação. Existem também razões mais práticas a serem consideradas.
Cynthia Cole, vice-presidente do departamento da seção corporativa da Baker Botts, observou que há vários propósitos para uma abordagem ampla da regulamentação, incluindo a capacidade de “ proteger o público da tomada de decisão automatizada que afeta indivíduos ou que usa dados relacionados a crianças. (…) Mas quanto ao escopo mais amplo você tem, mais alcance investigativo você tem para dar uma olhada, entender e aprender o que as empresas estão realmente fazendo ”, disse ela.
https://www.law.com/legaltechnews/2021/09/21/for-ai-regulators-it-may-be-go-broad-or-go-home/