
Este artigo é o primeiro de uma série de três partes intitulada “Desmistificando a IA: os principais conceitos por trás do AllAi”. A AllAi é a plataforma de produtividade alimentada por IA criada pela OSF Digital para aprimorar os serviços baseados na Salesforce. O AllAi otimiza os fluxos de trabalho e aumenta a eficiência de desenvolvedores, gerentes de projeto, engenheiros de controle de qualidade e analistas de negócios. Antes de mergulhar na forma como a AllAi utiliza a inteligência artificial para melhorar a produtividade, é essencial explorar primeiro os princípios fundamentais da IA, começando pelas redes neurais.
Na última década, a IA surgiu como um divisor de águas em várias indústrias. Do setor de saúde ao financeiro, a IA está revolucionando a forma como as empresas operam e como interagimos com a tecnologia. No varejo, as sugestões de marketing personalizado passaram de e-mails do tipo “Olá, [Seu nome]” para recomendações de produtos com nuances baseadas no seu histórico de navegação. Na área da saúde, a IA está ajudando no diagnóstico e até mesmo na previsão de surtos. Não importa o setor que você analise, a IA está estabelecendo novos padrões.
AI impact across industries.
Os recentes avanços nas redes neurais profundas (DNNs) impulsionaram a IA, levando ao surgimento de grandes modelos de linguagem (LLMs). Esses modelos levaram o processamento de linguagem natural a um nível totalmente novo, viabilizando chatbots, serviços de tradução e ferramentas de criação de conteúdo como nunca antes. Você já se perguntou como funcionam modelos como o GPT-4 (o mecanismo por trás do ChatGPT)? Para muitos, essas ferramentas parecem quase mágicas, capazes de gerar textos semelhantes aos humanos sob demanda, sem fronteiras ou limites aparentes. No entanto, os princípios subjacentes estão longe de ser feitiçaria. Ao analisar as camadas, desmistificaremos essas tecnologias e lhe daremos uma visão mais clara.
A daily interaction with ChatGPT.
Para entender o que impulsiona esses aplicativos avançados de IA, precisamos começar com o conceito de redes neurais. Pense nas redes neurais como o “cérebro” por trás da IA, inspirado na forma como os neurônios do cérebro humano processam as informações. Eles consistem em nós interconectados (neurônios) que se comunicam por meio de conexões ponderadas, muito parecidas com as sinapses no cérebro. Cada conexão tem um peso, e cada neurônio tem um limite que determina quando ele é ativado. Os pesos são aprendidos por meio de um processo chamado retropropagação, que é o mecanismo de treinamento responsável pelo “aprendizado” das redes neurais. Essa técnica ajuda a rede a melhorar sua precisão, analisando exemplos anteriores de entrada e saída e fazendo os ajustes necessários. Em outras palavras, ele ajusta o sistema com base no que funciona e no que não funciona. Com dados de treinamento suficientes, as redes neurais podem reconhecer padrões, fazer previsões e aplicar seu aprendizado a informações novas e não vistas.
Considere a metáfora simples de uma linha de montagem de uma fábrica. Cada trabalhador (neurônio) recebe uma parte (dados), executa uma tarefa específica (aplicando pesos e limiares) e, em seguida, a repassa para a linha seguinte. Por fim, o produto final (previsão ou decisão final) é feito. Se a fábrica produzir um produto incorreto, o processo será ajustado (treinamento via retropropagação) para melhorar os resultados futuros.
Basic diagram of an artificial neural network.
As arquiteturas tradicionais de redes neurais artificiais abriram o caminho, mas o verdadeiro salto veio com a introdução de uma nova arquitetura chamada Transformers por um grupo de pesquisadores da Google em conjunto com parceiros acadêmicos. Os Transformers revolucionaram a forma como abordamos o processamento de linguagem natural, permitindo que os modelos prestem atenção a diferentes partes dos dados de entrada de forma dinâmica. Isso possibilitou o processamento eficiente de grandes quantidades de dados e a manutenção do contexto em textos longos. Pense nisso como ler um livro em que cada frase ajuda você a entender melhor o capítulo inteiro. As redes neurais tradicionais tiveram dificuldades para manter esse tipo de percepção contextual, mas os Transformers são excelentes nesse aspecto. Eles permitem que os modelos se concentrem em partes relevantes do texto, tornando as operações mais rápidas e contextualmente mais conscientes.
Transformer Neural Network. From “Attention is All you Need”.
Os recursos profundos dos LLMs devem muito aos avanços na coleta de dados e no hardware. Os LLMs de hoje foram treinados em grandes quantidades de dados, abrangendo vários idiomas, contextos culturais e tópicos. Esse conjunto abrangente de dados permite que o modelo “aprenda e quase memorize” uma parte impressionante da Internet. No entanto, é fundamental entender que esses modelos operam com base em probabilidades. Os LLMs são fundamentalmente máquinas de adivinhação avançadas, que preveem a próxima palavra ou token em uma frase com base em padrões vistos anteriormente. Essa abordagem probabilística é a razão pela qual eles podem parecer tão semelhantes aos humanos, mas ocasionalmente produzem resultados peculiares ou inesperados.
Probabilistic word sampling (with beam search decoding). Source.
Em nosso próximo artigo, vamos nos aprofundar em como os LLMs realmente funcionam e exploraremos:
Acompanhe-nos enquanto continuamos a desvendar o impacto da IA e como o AllAi pode redefinir sua experiência com a Salesforce.
Rodrigo C. Barros, PhD, é Diretor de IA da OSF Digital, especializado em soluções de inteligência artificial para transformação digital. Ele é PhD em Ciência da Computação e Matemática Computacional pela Universidade de São Paulo, Brasil, e também atua como Professor Associado na PUCRS.