O mundo precisa de um código de ética de IA
- Criado em 08/09/2022 Por LinkLei
É uma lei férrea do progresso que qualquer inovação que beneficie a sociedade também tem o potencial de causar danos. Vimos isso com o trem e o automóvel. Já podemos ver isso com a engenharia genética. E agora estamos vendo isso com inteligência artificial.
Cada dia traz um novo relatório de como a inteligência artificial está abrindo novas oportunidades para >detectar >doenças e eliminar a >fome , para entender >a natureza do universo ou para >combater as mudanças climáticas . No entanto, usos mais sombrios também estão surgindo, incluindo >deepfakes , >desinformação e sistemas de >armas autônomos capazes de usar força letal sem intervenção humana.
Encontramo-nos à porta do próximo grande desafio social: aproveitar os benefícios da inteligência artificial e, ao mesmo tempo, garantir que ela seja usada de forma ética e responsável. É nossa responsabilidade estabelecer processos e políticas agora para determinar se a IA será útil ou prejudicial no futuro e como nos protegeremos contra o uso ilícito ou perigoso. O problema é múltiplo: como garantir que o setor privado desenvolva essa tecnologia de forma ética? O que a ética da IA ​​envolve? Como evitamos que os preconceitos sociais sejam incorporados e amplificados pela IA?
Não são perguntas retóricas. Eles representam questões de preocupação geracional que exigem um grande debate e uma enorme colaboração entre os setores público e privado. Líderes empresariais, acadêmicos e servidores públicos devem confiar uns nos outros para elaborar essas soluções juntos de forma inteligente e ponderada. Nenhum grupo terá a resposta, e nenhuma entidade singular saberá o que é do melhor interesse da sociedade em relação a uma tecnologia com potencial que rivaliza - e talvez supera - qualquer desenvolvida na história humana. Devemos estabelecer essas ferramentas de confiança.
As apostas colocadas por esse dilema – nossa necessidade de acertar – tornam uma tarefa formidável, mas não impossível. Durante meu tempo no governo, participei de iniciativas que abordaram uma série de problemas intrincadamente detalhados, politicamente carregados e complexos. Repensamos o futuro da triagem de passageiros no Departamento de Segurança Interna. Apoiamos os esforços para combater a agressão sexual e o assédio sexual nas fileiras do Departamento de Defesa. E liderei um grupo de funcionários civis de carreira dedicados e membros do serviço uniformizado para elaborar recomendações sobre o combate à atividade extremista dentro das forças armadas dos EUA. Aprendi que enfrentar esses problemas exige um investimento nas pessoas e também em relacionamentos construídos com base na confiança.
Todas estas foram tarefas difíceis, a nível profissional e pessoal. Eles eram politicamente sensíveis, divisivos e exigiam uma abordagem de toda a comunidade para desenvolver soluções que abordassem as causas básicas de cada problema. Essas questões não são menos complicadas, mas também não são menos urgentes. Dadas as capacidades projetadas de IA de longo prazo, garantir seu uso ético é fundamental para a segurança da comunidade global.
Se não nos unirmos agora para enfrentar esses desafios, as consequências serão devastadoras para nossa nação e sociedades em todo o mundo. Isso fará com que governos em todos os níveis trabalhem lado a lado com líderes industriais, acadêmicos, comunitários e políticos em uma parceria público-privada duradoura. Determinar a supervisão, a estrutura regulatória e os recursos adequados será fundamental para criar padrões que resultem no menor dano e no maior benefício, garantindo simultaneamente que a inovação e a criatividade nessa arena não sejam sufocadas ou sofram um efeito de resfriamento.
Os críticos podem se opor a todo o projeto alegando que os padrões éticos só podem tornar as empresas de IA dos EUA menos competitivas. Eles podem concordar com o ex-CEO do Google Eric Schmidt, >que certa vez argumentou sobre o reconhecimento facial: “não há concurso EUA-China; os Estados Unidos essencialmente cederam a corrida por causa de preocupações com a privacidade do indivíduo médio e profundas reservas sobre como essa tecnologia poderia ser implantada”.
Embora eu respeite muito sua experiência e perspicácia, discordo. >O desempenho das empresas de reconhecimento facial dos EUA em benchmarks governamentais recentes sugere que o desenvolvimento baseado em princípios não é obstáculo ao desempenho de IA de classe mundial. Talvez mais ao ponto, nunca fomos um país para fugir das dificuldades associadas a resolver problemas difíceis ou fazer avanços geracionais. Este é um momento de desafio, um momento de controvérsia, e é nosso momento de sermos medidos.
Não se engane: conceber um conjunto globalmente aceito de princípios de IA e convencer instituições públicas e privadas a adotá-lo será um trabalho pesado. Mas ignorar o desafio não é uma opção. Se queremos um futuro condizente com nossos valores, precisamos resolver esse problema agora, juntos, com todos os ativos à nossa disposição.
Fonte: https://www.protocol.com/policy/world-needs-ai-ethics