Glossário de Inteligência Artificial
- Criado em 28/03/2023 Por LinkLei
A inteligência artificial está dominando as conversas em todos os setores, inclusive o jurídico. Para ajudar os profissionais jurídicos a navegar neste espaço em rápida evolução, definimos abaixo muitos dos principais termos e conceitos relacionados à IA. Este glossário será continuamente atualizado à medida que novos desenvolvimentos surgirem.
Algoritmo: Em IA, um conjunto de instruções ou programação que diz a um computador o que fazer para permitir que a máquina aprenda a operar por conta própria para resolver um problema específico ou executar uma tarefa específica.
Inteligência Artificial (IA): O ramo da ciência da computação focado na teoria, desenvolvimento e design de sistemas de computador que têm a capacidade de imitar a inteligência humana e pensar ou executar tarefas que normalmente requerem inteligência humana.
Bard: Uma ferramenta de chatbot lançada pelo Google em fevereiro de 2023, baseada no modelo de linguagem grande LaMDA.
Chatbot: Um programa de computador que “conversa” com seu usuário. Os chatbots baseados em regras ou fluxos fornecem respostas pré-escritas em resposta a perguntas e não podem se desviar desse conteúdo. Os chatbots baseados em IA são mais dinâmicos , podem extrair informações de bancos de dados maiores e aprender mais com o tempo. Eles são construídos sobre a IA conversacional.
ChatGPT: Um chatbot comercialmente disponível da Open AI, baseado no modelo de linguagem grande GPT-3.5, também conhecido como text-davinci-003, lançado em 30 de novembro de 2022.
Aprendizado Ativo Contínuo (CAL): Uma aplicação de IA na qual o sistema aprende a se corrigir – sem a necessidade de supervisão humana contínua – porque aprendeu a discernir entre vários graus de documentos ou conceitos responsivos e não responsivos por meio do aprendizado supervisionado. Em e-discovery, o TAR 2.0 é um exemplo de aprendizado ativo contínuo.
IA conversacional: tecnologias que usam grandes volumes de dados, aprendizado de máquina e processamento de linguagem natural para permitir que os usuários “conversem” com a tecnologia, imitando a interação humana por meio do reconhecimento de entradas de texto e fala. A IA conversacional serve como o “cérebro” sintético por trás de alguns chatbots.
Deep Learning: Um tipo de aprendizado de máquina que utiliza redes neutras para imitar o cérebro humano, usando três ou mais camadas de treinamento para habilitar os dados do cluster de IA e fazer previsões.
Modelo fundamental: um grande modelo de IA treinado em grandes quantidades de dados não rotulados, geralmente por meio de aprendizado autossupervisionado, que pode ser usado para executar com precisão uma ampla gama de tarefas com o mínimo de ajuste fino. Essas tarefas incluem: processamento de linguagem natural, classificação de imagens, resposta a perguntas e muito mais.
Garbage In, Garbage Out: Uma expressão que significa que um sistema de IA é tão bom quanto os dados nos quais é treinado. Se um sistema de IA for treinado com dados imprecisos, tendenciosos ou desatualizados, suas saídas refletirão essas deficiências.
IA generativa: uma categoria de sistemas de IA, incluindo grandes modelos de linguagem, que podem criar de forma independente conteúdo novo e exclusivo, na forma de texto, imagens, áudio e muito mais, com base nos dados em que foram treinados anteriormente. Ao contrário dos sistemas tradicionais de IA, os algoritmos generativos de IA vão além do reconhecimento de padrões e da realização de previsões. Alguns sistemas avançados de IA generativa não se limitam aos seus conjuntos de dados de treinamento e podem aprender a responder a perguntas ou solicitações contendo informações sobre as quais não foram treinados anteriormente. Isso é definido como aprendizado zero-shot.
GPT: Transformador pré-treinado generativo; o prefixo para várias gerações de grandes modelos de linguagem da empresa OpenAI. Por exemplo, GPT-3 é a terceira geração de modelos GPT. GPT-1 foi lançado em junho de 2018. GPT-2 foi lançado em fevereiro de 2019. GPT-3 foi lançado em junho de 2020. GPT-3.5 foi lançado em março de 2022, com modelos subjacentes lançados ao longo do ano e tex-davinci- 003 recebendo atenção significativa no final de 2022. GPT-5 foi lançado em 14 de março de 2023.
Graphics Processing Unit (GPU): Um tipo de processador eficiente usado para renderizar gráficos na tela do computador. As GPUs são críticas no treinamento de sistemas de IA e grandes modelos de linguagem que exigem poder de processamento significativo.
Alucinação: Uma instância em que um sistema de IA, quando faz uma pergunta ou pergunta, fornece uma resposta falsa, fictícia, mas convincente, que tem certeza de que está correta.
LaMDA: Language Model for Dialogue Applications, um grande modelo de linguagem lançado pelo Google em maio de 2021.
Large Language Model (LLM): Um tipo de algoritmo de aprendizado profundo ou modelo de aprendizado de máquina que pode executar uma variedade de tarefas de processamento de linguagem natural. Estes incluem: ler, resumir, traduzir, classificar, prever e gerar palavras ou frases de texto, responder a perguntas ou responder a prompts de maneira conversacional e traduzir texto de um idioma para outro. Ele executa essas tarefas com base no conhecimento obtido de conjuntos de dados massivos e aprendizado supervisionado e por reforço. LLMs são um tipo de modelo fundamental.
LLaMA: Large Language Model Meta AI, um grande modelo de linguagem lançado pela Meta em fevereiro de 2023.
Machine Learning: Um amplo ramo da IA preocupado em “ensinar” sistemas de IA a executar tarefas, entender conceitos ou resolver problemas de uma forma que imite o comportamento humano inteligente, tornando-se gradualmente mais preciso à medida que é treinado em mais dados.
Modelo: Uma ferramenta ou algoritmo de IA baseado em um conjunto de dados definido que toma decisões que um especialista humano tomaria com as mesmas informações, mas sem interferência humana no processo de tomada de decisão. GPT-3, por exemplo, é um modelo AI.
IA Multimodal: Um sistema de IA capaz de processar vários tipos de dados, como imagens, vídeo ou som, além de texto, para gerar saída.
Processamento de Linguagem Natural (NLP): Um ramo da IA e da ciência da computação que se refere à capacidade de computadores ou software de entender e ler a linguagem escrita e falada na forma de dados de texto e voz, incluindo intenção e sentimento.
Rede neural: um meio de aprendizado de máquina que imita o cérebro humano e inclui a capacidade de várias camadas de treinamento ocorrerem simultaneamente. As redes neurais são compostas por milhões de nós de processamento e são fundamentais para o aprendizado profundo.
Parâmetros: Bits de conhecimento ou variáveis, que podem ser pensados como conexões entre conceitos, que um modelo de IA aprende ao longo de seu processo de treinamento. Os parâmetros são ajustados durante o treinamento para alcançar as saídas desejadas de entradas específicas. De um modo geral, quanto mais parâmetros, maior a capacidade da IA de entender e conectar conceitos complexos. Portanto, quanto mais parâmetros, mais avançado é o modelo de IA.
Prompt: A instrução dada a um modelo de IA ou algoritmo de aprendizado de máquina para gerar uma saída específica.
Engenharia de prompts: identificar e usar os prompts certos para produzir os resultados mais úteis ou desejáveis de uma ferramenta de IA.
Aprendizado por Reforço: Uma técnica de aprendizado de máquina usada para treinar um modelo de IA no qual o sistema de IA aprende interativamente por tentativa e erro, incorporando feedback de suas próprias ações e resultados.
Robotic Process Automation (RPA): Uma forma de automação de processos de negócios, também conhecida como robótica de software, que permite que humanos usem tecnologia de automação inteligente para definir um conjunto de instruções para a execução de tarefas humanas repetitivas e de alto volume de forma rápida e sem erros. Embora a tecnologia RPA compartilhe semelhanças com IA e seja frequentemente incluída nas mesmas discussões, ela não é uma forma de IA.
Aprendizado auto-supervisionado: uma forma de aprendizado de máquina em que um modelo é inserido com dados não estruturados e gera rótulos de dados automaticamente; essencialmente, o modelo se treina para diferenciar entre diferentes partes da entrada. Também conhecido como aprendizado preditivo ou pretexto.
Aprendizado semi-supervisionado: uma forma de aprendizado de máquina em que alguns dos dados de entrada são rotulados. O aprendizado semissupervisionado é uma mistura de aprendizado supervisionado e não supervisionado.
Aprendizado supervisionado: uma forma de aprendizado de máquina em que um modelo é ensinado a identificar um determinado conceito ou tópico - por exemplo, um tipo específico de documento - por meio de uma pessoa corrigindo manualmente a máquina durante o processo de treinamento. No e-discovery, o TAR 1.0 é um exemplo de aprendizado supervisionado.
Token: No processamento de linguagem natural, uma sequência de caracteres que formam uma unidade semântica ou determinado papel em uma linguagem escrita. O processo de quebrar um fluxo de linguagem em elementos significativos, como palavras ou frases, é chamado de tokenização.
Aprendizado não supervisionado: uma forma de aprendizado de máquina em que um modelo emprega técnicas de aprendizado profundo para detectar padrões em dados sem treinamento explícito em dados rotulados.
Zero-Shot Learning: A capacidade de um sistema de IA aprender a responder a perguntas ou solicitações, criar novo conteúdo ou classificar dados nos quais não foi treinado anteriormente.
Fonte: https://www.law.com/legaltechnews/2023/03/17/the-artificial-intelligence-glossary/