
Este artículo es el primero de una serie de tres titulada "Desmitificando la IA: los conceptos básicos de AllAi". AllAi es la plataforma de productividad impulsada por IA creada por OSF Digital para mejorar los servicios impulsados por Salesforce. AllAi optimiza los flujos de trabajo y aumenta la eficacia de desarrolladores, project managers, ingenieros de QA y business analysts. Antes de profundizar en cómo AllAi utiliza la inteligencia artificial para mejorar la productividad, es esencial explorar primero los principios fundamentales de la IA, empezando por las redes neuronales.
En la última década, la IA ha cambiado las reglas del juego en varias industrias. Desde la salud a las finanzas, la IA está revolucionando el funcionamiento de las empresas y nuestra interacción con la tecnología. En el retail, las sugerencias de marketing personalizadas han pasado de los mensajes de e-mail del tipo "Hola, [tu nombre]" a recomendaciones matizadas de productos basadas en el historial de navegación. En la atención médica, la IA está ayudando en el diagnóstico e incluso prediciendo epidemias. No importa en qué industria se mire, la IA está estableciendo nuevos estándares.
AI impact across industries.
Los recientes avances en las redes neuronales profundas (DNN) han propulsado la IA, dando lugar al auge de los grandes modelos lingüísticos (LLM). Estos modelos han llevado el procesamiento del lenguaje natural a un nivel completamente nuevo, permitiendo el uso de chatbots, servicios de traducción y herramientas de creación de contenidos como nunca antes. ¿Alguna vez te has preguntado cómo funcionan modelos como GPT-4 (el motor detrás de ChatGPT)? Para muchos, estas herramientas parecen casi mágicas, capaces de generar textos similares a los humanos a la carta, sin fronteras ni límites aparentes. Sin embargo, los principios subyacentes distan mucho de ser brujería. Al desgranar las capas, desmitificaremos estas tecnologías y te daremos una idea más clara.
A daily interaction with ChatGPT.
Para comprender qué impulsa estas aplicaciones avanzadas de IA, debemos comenzar con el concepto de redes neuronales. Piensa en las redes neuronales como el "cerebro" detrás de la IA, inspirado en la forma en que las neuronas del cerebro humano procesan la información. Ellas consisten en nodos interconectados (neuronas) que se comunican a través de conexiones ponderadas, al igual que las sinapsis en el cerebro. Cada conexión tiene un peso, y cada neurona tiene un umbral que determina cuándo se activa. Los pesos se aprenden a través de un proceso llamado retropropagación, que es el mecanismo de entrenamiento responsable del "aprendizaje" de las redes neuronales. Esta técnica ayuda a la red a mejorar su precisión al analizar ejemplos pasados de entrada-salida y hacer los ajustes necesarios. En pocas palabras, ajusta el sistema en función de lo que funciona y lo que no. Con suficientes datos de entrenamiento, las redes neuronales pueden reconocer patrones, hacer predicciones y aplicar su aprendizaje a nueva información no vista.
Consideremos la sencilla metáfora de una cadena de montaje de una fábrica. Cada trabajador (neurona) recibe una parte (datos), realiza una tarea específica (aplicando pesos y umbrales) y, a continuación, la transmite a la cadena. Finalmente, se toma el producto final (predicción o decisión final). Si la fábrica produce un producto incorrecto, el proceso se modifica (capacitación mediante propagación inversa) para mejorar los resultados futuros.
Basic diagram of an artificial neural network.
Las arquitecturas tradicionales de redes neuronales artificiales allanaron el camino, pero el verdadero salto se produjo con la introducción de una nueva arquitectura denominada Transformers por un grupo de investigadores de Google junto con unos socios universitarios. Los Transformers revolucionaron la forma de abordar el procesamiento del lenguaje natural al permitir que los modelos prestaran atención a distintas partes de los datos de entrada de forma dinámica. Esto permitió procesar grandes cantidades de datos con eficacia y mantener el contexto en textos largos. Es como leer un libro en el que cada frase te ayuda a entender mejor todo el capítulo. Las redes neuronales tradicionales tenían dificultades para mantener este tipo de conciencia contextual, pero los Transformers sobresalen en este aspecto. Permiten a los modelos centrarse en las partes relevantes del texto, lo que agiliza las operaciones y las hace más conscientes del contexto.
Transformer Neural Network. From “Attention is All you Need”.
Las profundas capacidades de los LLM se deben en gran medida a los avances tanto en la recogida de datos como en el hardware. Los LLM de hoy en día han recibido formación sobre grandes cantidades de datos, que abarcan múltiples lenguas, contextos culturales y temas. Este amplio conjunto de datos permite al modelo "aprender y casi memorizar" una parte impresionante de Internet. Sin embargo, es fundamental comprender que estos modelos funcionan sobre la base de probabilidades. Los LLM son, fundamentalmente, máquinas avanzadas de adivinar, que predicen la siguiente palabra o símbolo de una frase basándose en patrones observados anteriormente. Este enfoque probabilístico es la razón por la que pueden parecer tan humanos y, sin embargo, a veces producen resultados extravagantes o inesperados.
Probabilistic word sampling (with beam search decoding). Source.
En nuestro siguiente artículo, veremos más de cerca cómo funcionan realmente los LLM y exploraremos sus posibilidades:
Sigue con nosotros para descubrir el impacto de la IA y cómo AllAi puede redefinir tu experiencia con Salesforce.
Rodrigo C. Barros, PhD, es AI Director en OSF Digital, especializado en soluciones de inteligencia artificial para la transformación digital. Es doctor en Informática y Matemáticas Computacionales por la Universidad de São Paulo (Brasil) y profesor asociado de PUCRS.