VOLVER
Agents speak data: are we ready to listen?

El lenguaje de los agentes de IA: ¿estamos preparados para escucharlos?

Los agentes están en el punto de mira. Las bases creadas allanan el camino hacia un futuro sostenible.

Este año, los agentes de IA son los protagonistas. Prometen automatizar las decisiones, anticipar las necesidades y aliviar la carga de trabajo de los equipos. Las demostraciones son convincentes, pero antes de precipitarnos a «crear un agente», conviene plantearse una pregunta importante: ¿cuáles son las condiciones que hacen posible la existencia de un agente?

Ahí es donde mis dos mundos se unen. Como directora comercial, observo que las empresas esperan que la IA les aporte rapidez, autonomía y resultados medibles. Como investigadora en sociología, especializada en nuestra relación con las tecnologías digitales, trato de desentrañar los aspectos menos visibles: cómo se estructura el conocimiento, cómo los seres humanos confían o se resisten a los sistemas, cómo los propios datos se convierten en una forma de lenguaje.

Porque, fundamentalmente, los datos funcionan como un lenguaje. Los agentes de IA no razonan como los humanos: analizan, ensamblan y actúan según la gramática de la información estructurada. Si el vocabulario es incoherente, si la sintaxis es defectuosa, si el significado está fragmentado entre diferentes silos, el agente de IA con seguridad propondrá respuestas absurdas. Por lo tanto, prepararse para la llegada de los agentes de IA no consiste tanto en escribir código en Dreamforce como en utilizar su lenguaje actual: cómo se definen, gestionan y comparten sus datos.

Y junto a esta capa técnica se encuentra una capa humana. Los agentes de IA modifican los flujos de trabajo, los derechos de decisión y las responsabilidades. Sin una gestión consciente del cambio, el nuevo «lenguaje» corre el riesgo tanto de empoderar como de excluir.

En este artículo, exploro estas dos condiciones (la preparación de los datos para una mayor claridad lingüística y la gestión del cambio como traducción cultural) y desarrollo por qué son más importantes que el entusiasmo que genera una demostración.

Los datos como lenguaje de los agentes de IA

Si los agentes están diseñados para «actuar», lo hacen interpretando el mundo a través de los datos que se les proporcionan. Los datos no son información neutra: constituyen el vocabulario y la gramática que dan forma a lo que el agente de IA puede percibir, decidir y ejecutar. En otras palabras, la calidad de un agente depende de la calidad del lenguaje que se le enseña a hablar.

Piensea en un idioma en el que faltan palabras, cuya sintaxis es fragmentada o cuyos significados son contradictorios. La comunicación se vuelve frágil, los malentendidos se multiplican y se pierden los matices. Esto es lo que ocurre cuando las empresas intentan implementar agentes de IA en conjuntos de datos fragmentados, silos o estructuras de gobernanza mal definidas. El agente de IA puede parecer fluido, pero bajo la superficie, improvisa con lagunas, medias verdades e incoherencias.

Vocabulario incompleto: cuando los datos inducen a error a los agentes

  • Identidad del cliente: ¿una misma persona aparece cinco veces con diferentes ortografías, direcciones de correo electrónico o identificadores? Los humanos detectan la duplicación, pero los agentes de IA no. El «discurso» del agente se verá entonces distorsionado, ofreciendo experiencias fragmentadas o recomendaciones inadecuadas.
  • Jerarquías de productos: imagina una empresa en la que el mismo producto se codifica de forma diferente en los sistemas de ventas, marketing y cadena de suministro. Un agente de IA encargado de «optimizar las existencias» se encontrará en una trampa lingüística: el mismo objeto se designa con tres nombres diferentes, por lo que no puede tener una visión global.
  • Matices culturales: en las empresas internacionales, la palabra «cliente» puede significar «consumidor final» en un mercado y «socio distribuidor» en otro. Cuando este matiz se pierde en el modelo de datos, el agente corre el riesgo de actuar basándose en suposiciones erróneas, lo que puede tener consecuencias comerciales muy reales.

Estos puntos no son simples inconvenientes técnicos. Revelan algo más profundo: las categorías de datos son decisiones sociales. Cuando definimos lo que cuenta como «cliente», cuando decidimos qué interacciones registrar y cuáles ignorar, no solo estamos registrando la realidad, sino que la estamos moldeando. Como nos recuerda Pierre Bourdieu, nombrar es hacer existir. Al estructurar los datos, construimos efectivamente el mundo en el que evolucionarán nuestros agentes de IA.

Definir la gramática de los datos

La pregunta sociológica que surge entonces es la siguiente: ¿quién decide la gramática de este lenguaje? A menudo, son los equipos técnicos los que formalizan los esquemas y las taxonomías. Pero los conocimientos adquiridos por los trabajadores de primera línea —la forma en que describen a un cliente, interpretan un estado, resuelven problemas concretos— rara vez se integran en el conjunto de datos. El resultado es un vocabulario limitado: los agentes de IA «hablan», pero no disponen de la riqueza del idioma humano al que se supone que deben ayudar.

De la recopilación a la coherencia de los datos

La pregunta no es «¿tiene suficientes datos?», sino más bien:

  • ¿Dispone de un «lenguaje» coherente que sus agentes de IA puedan comprender y poner en práctica?
  • ¿Reflejan las definiciones de sus datos la forma en que su empresa y sus equipos funcionan realmente y entienden el mundo?
  • Y quizás lo más importante: ¿existe un proceso común para armonizar y enriquecer el lenguaje entre los equipos comerciales y técnicos?

Por lo tanto, los agentes de IA son tan poderosos como el dominio del lenguaje que heredan. Prepararse para su llegada consiste menos en adoptar las últimas funcionalidades que en cultivar un vocabulario común, inteligible y fiable en toda la organización.

La gestión del cambio como traducción de la cultura

Si los datos son el lenguaje de los agentes de IA, la gestión del cambio es entonces el acto de traducir este nuevo lenguaje a las personas que deben vivirlo. Con demasiada frecuencia, las empresas subestiman esta etapa: parten del principio de que si la tecnología es potente, su adopción vendrá por sí sola. En la práctica, ocurre lo contrario. Sin traducción, el nuevo lenguaje sigue siendo extraño, desestabilizador e incluso excluyente.

Cuando la tecnología modifica las funciones y los derechos

A diferencia de las herramientas digitales anteriores, los agentes de IA no se limitan a ayudar, sino que deciden y actúan. Esto modifica la estructura del trabajo operativo:

  • Los derechos de decisión evolucionan: ¿quién tiene la autoridad cuando el agente de IA actúa de forma autónoma?
  • La responsabilidad se vuelve ambigua: si un agente de IA comete un error, ¿quién es responsable del resultado?
  • Se redefinen los roles: algunas tareas desaparecen, otras requieren nuevas habilidades de interpretación.

En sociología, no se trata solo de «ajustes operativos». Estos puntos señalan cambios en la forma en que circulan el poder y la responsabilidad dentro de una empresa. Si no hacemos explícitos estos cambios, pueden parecer neutros o automáticos, aunque tengan consecuencias reales en la dinámica del lugar de trabajo.

La dimensión emocional de la adopción de los agentes de IA

Los agentes de IA no solo hacen evolucionar las tareas, sino que también cambian la forma en que los equipos perciben su lugar en el sistema. Para algunos, los agentes de IA suponen un alivio: se eliminan las tareas repetitivas, lo que libera tiempo para contribuciones más creativas. Para otros, provocan ansiedad: las habilidades parecen devaluadas, la experiencia menos relevante, el futuro incierto. Estas reacciones rara vez se expresan en las presentaciones de PowerPoint, pero influyen en la adopción más que cualquier sesión de formación técnica.

Es tan importante reconocer esta dimensión emocional como impartir formación técnica, ya que influye en la adopción más que las propias funcionalidades.

Traducción práctica

Una gestión eficaz del cambio considera la llegada de los agentes de IA como un cambio cultural que debe ser contado, explicado y asimilado colectivamente. Esto significa:

  • Enmarcar la narrativa: ¿por qué introducimos agentes de IA? ¿Qué problemas resuelven para las personas, y no solo para los KPI?
  • Enseñar la nueva gramática: la formación no se limita a los botones y los paneles de control, sino que consiste en enseñar a los empleados a interpretar y cuestionar los resultados, a saber cuándo confiar en el sistema y cuándo intervenir.
  • Crear un diálogo: crear foros en los que se puedan expresar la resistencia tecnológica, las preocupaciones y las ideas, para que el «nuevo lenguaje» se enriquezca en lugar de imponerse.

De la adopción a la apropiación

El objetivo no es una adopción ciega, sino una verdadera apropiación, en la que los empleados sientan que los agentes de IA amplían su ámbito de acción en lugar de sustituirlo. Esto exige que las empresas actúen menos como traductores de una lengua acabada y más como coautores de un dialecto: adaptándose, renegociando y perfeccionando sobre la marcha.

Hablar un lenguaje común: los datos, las personas y un propósito

Los agentes de IA son los protagonistas de la edición 2025 de Dreamforce, pero su éxito depende de fundamentos mucho menos visibles. Los datos deben tratarse como un idioma —preciso, coherente y compartido— si queremos que estos agentes se expresen con claridad en lugar de con confusión. La gestión del cambio debe actuar como una traducción cultural, asegurándose de que este nuevo lenguaje no solo se comprenda, sino que también sea adoptado por las personas que lo hablarán a diario. Además, la inspiración debe conducir a la acción: el entusiasmo generado por la demostración debe dar lugar a un trabajo de integración paciente y reflexivo.

En mi función diaria como directora comercial, veo lo urgente que se ha vuelto la demanda de rapidez y automatización. Al mismo tiempo, como investigadora en sociología, recuerdo que las tecnologías no surgen de la nada. Remodelan la forma en que organizamos el conocimiento, distribuimos las responsabilidades y confiamos unos en otros.

Por lo tanto, la verdadera oportunidad no consiste solo en crear agentes de IA, sino también en establecer las condiciones en las que puedan funcionar de forma agradable, condiciones en las que los datos hablen un lenguaje claro, en las que los equipos se sientan incluidos en la traducción y en las que la inspiración alimente la responsabilidad a largo plazo.

¿Quieres convertir la inspiración en acción?

Los agentes pueden hablar con datos, pero las organizaciones deben aprender a escuchar. La creación de ese lenguaje común comienza con unas bases de datos sólidas y una cultura preparada para evolucionar junto con los sistemas inteligentes.

Si quieres convertir la inspiración en acciones responsables, habla con un experto de OSF Digital para descubrir cómo podemos ayudar a tu organización a prepararse para la era de la empresa agéntica.

Andrea Gacanin

Autora: Andrea Gacanin, Directora de ventas e investigadora

Andrea es directora comercial de OSF Digital y cuenta con más de 17 años de experiencia internacional en los campos de geopolítica, educación, tecnología de la información y bienes de consumo. Está especializada en ventas en el entorno cloud y ayuda a sus clientes a abordar la transformación digital con confianza y claridad. Más allá de su función en OSF, Andrea realiza investigaciones doctorales en Université Paris 8 sobre la intersección entre la tecnología, la sociedad y el capitalismo de vigilancia. También es una ferviente aficionada a las ultramaratones.