

Este año, los agentes de IA son los protagonistas. Prometen automatizar las decisiones, anticipar las necesidades y aliviar la carga de trabajo de los equipos. Las demostraciones son convincentes, pero antes de precipitarnos a «crear un agente», conviene plantearse una pregunta importante: ¿cuáles son las condiciones que hacen posible la existencia de un agente?
Ahí es donde mis dos mundos se unen. Como directora comercial, observo que las empresas esperan que la IA les aporte rapidez, autonomía y resultados medibles. Como investigadora en sociología, especializada en nuestra relación con las tecnologías digitales, trato de desentrañar los aspectos menos visibles: cómo se estructura el conocimiento, cómo los seres humanos confían o se resisten a los sistemas, cómo los propios datos se convierten en una forma de lenguaje.
Porque, fundamentalmente, los datos funcionan como un lenguaje. Los agentes de IA no razonan como los humanos: analizan, ensamblan y actúan según la gramática de la información estructurada. Si el vocabulario es incoherente, si la sintaxis es defectuosa, si el significado está fragmentado entre diferentes silos, el agente de IA con seguridad propondrá respuestas absurdas. Por lo tanto, prepararse para la llegada de los agentes de IA no consiste tanto en escribir código en Dreamforce como en utilizar su lenguaje actual: cómo se definen, gestionan y comparten sus datos.
Y junto a esta capa técnica se encuentra una capa humana. Los agentes de IA modifican los flujos de trabajo, los derechos de decisión y las responsabilidades. Sin una gestión consciente del cambio, el nuevo «lenguaje» corre el riesgo tanto de empoderar como de excluir.
En este artículo, exploro estas dos condiciones (la preparación de los datos para una mayor claridad lingüística y la gestión del cambio como traducción cultural) y desarrollo por qué son más importantes que el entusiasmo que genera una demostración.
Si los agentes están diseñados para «actuar», lo hacen interpretando el mundo a través de los datos que se les proporcionan. Los datos no son información neutra: constituyen el vocabulario y la gramática que dan forma a lo que el agente de IA puede percibir, decidir y ejecutar. En otras palabras, la calidad de un agente depende de la calidad del lenguaje que se le enseña a hablar.
Piensea en un idioma en el que faltan palabras, cuya sintaxis es fragmentada o cuyos significados son contradictorios. La comunicación se vuelve frágil, los malentendidos se multiplican y se pierden los matices. Esto es lo que ocurre cuando las empresas intentan implementar agentes de IA en conjuntos de datos fragmentados, silos o estructuras de gobernanza mal definidas. El agente de IA puede parecer fluido, pero bajo la superficie, improvisa con lagunas, medias verdades e incoherencias.
Estos puntos no son simples inconvenientes técnicos. Revelan algo más profundo: las categorías de datos son decisiones sociales. Cuando definimos lo que cuenta como «cliente», cuando decidimos qué interacciones registrar y cuáles ignorar, no solo estamos registrando la realidad, sino que la estamos moldeando. Como nos recuerda Pierre Bourdieu, nombrar es hacer existir. Al estructurar los datos, construimos efectivamente el mundo en el que evolucionarán nuestros agentes de IA.
La pregunta sociológica que surge entonces es la siguiente: ¿quién decide la gramática de este lenguaje? A menudo, son los equipos técnicos los que formalizan los esquemas y las taxonomías. Pero los conocimientos adquiridos por los trabajadores de primera línea —la forma en que describen a un cliente, interpretan un estado, resuelven problemas concretos— rara vez se integran en el conjunto de datos. El resultado es un vocabulario limitado: los agentes de IA «hablan», pero no disponen de la riqueza del idioma humano al que se supone que deben ayudar.
La pregunta no es «¿tiene suficientes datos?», sino más bien:
Por lo tanto, los agentes de IA son tan poderosos como el dominio del lenguaje que heredan. Prepararse para su llegada consiste menos en adoptar las últimas funcionalidades que en cultivar un vocabulario común, inteligible y fiable en toda la organización.
Si los datos son el lenguaje de los agentes de IA, la gestión del cambio es entonces el acto de traducir este nuevo lenguaje a las personas que deben vivirlo. Con demasiada frecuencia, las empresas subestiman esta etapa: parten del principio de que si la tecnología es potente, su adopción vendrá por sí sola. En la práctica, ocurre lo contrario. Sin traducción, el nuevo lenguaje sigue siendo extraño, desestabilizador e incluso excluyente.
A diferencia de las herramientas digitales anteriores, los agentes de IA no se limitan a ayudar, sino que deciden y actúan. Esto modifica la estructura del trabajo operativo:
En sociología, no se trata solo de «ajustes operativos». Estos puntos señalan cambios en la forma en que circulan el poder y la responsabilidad dentro de una empresa. Si no hacemos explícitos estos cambios, pueden parecer neutros o automáticos, aunque tengan consecuencias reales en la dinámica del lugar de trabajo.
Los agentes de IA no solo hacen evolucionar las tareas, sino que también cambian la forma en que los equipos perciben su lugar en el sistema. Para algunos, los agentes de IA suponen un alivio: se eliminan las tareas repetitivas, lo que libera tiempo para contribuciones más creativas. Para otros, provocan ansiedad: las habilidades parecen devaluadas, la experiencia menos relevante, el futuro incierto. Estas reacciones rara vez se expresan en las presentaciones de PowerPoint, pero influyen en la adopción más que cualquier sesión de formación técnica.
Es tan importante reconocer esta dimensión emocional como impartir formación técnica, ya que influye en la adopción más que las propias funcionalidades.
Una gestión eficaz del cambio considera la llegada de los agentes de IA como un cambio cultural que debe ser contado, explicado y asimilado colectivamente. Esto significa:
El objetivo no es una adopción ciega, sino una verdadera apropiación, en la que los empleados sientan que los agentes de IA amplían su ámbito de acción en lugar de sustituirlo. Esto exige que las empresas actúen menos como traductores de una lengua acabada y más como coautores de un dialecto: adaptándose, renegociando y perfeccionando sobre la marcha.
Los agentes de IA son los protagonistas de la edición 2025 de Dreamforce, pero su éxito depende de fundamentos mucho menos visibles. Los datos deben tratarse como un idioma —preciso, coherente y compartido— si queremos que estos agentes se expresen con claridad en lugar de con confusión. La gestión del cambio debe actuar como una traducción cultural, asegurándose de que este nuevo lenguaje no solo se comprenda, sino que también sea adoptado por las personas que lo hablarán a diario. Además, la inspiración debe conducir a la acción: el entusiasmo generado por la demostración debe dar lugar a un trabajo de integración paciente y reflexivo.
En mi función diaria como directora comercial, veo lo urgente que se ha vuelto la demanda de rapidez y automatización. Al mismo tiempo, como investigadora en sociología, recuerdo que las tecnologías no surgen de la nada. Remodelan la forma en que organizamos el conocimiento, distribuimos las responsabilidades y confiamos unos en otros.
Por lo tanto, la verdadera oportunidad no consiste solo en crear agentes de IA, sino también en establecer las condiciones en las que puedan funcionar de forma agradable, condiciones en las que los datos hablen un lenguaje claro, en las que los equipos se sientan incluidos en la traducción y en las que la inspiración alimente la responsabilidad a largo plazo.
¿Quieres convertir la inspiración en acción?
Los agentes pueden hablar con datos, pero las organizaciones deben aprender a escuchar. La creación de ese lenguaje común comienza con unas bases de datos sólidas y una cultura preparada para evolucionar junto con los sistemas inteligentes.
Si quieres convertir la inspiración en acciones responsables, habla con un experto de OSF Digital para descubrir cómo podemos ayudar a tu organización a prepararse para la era de la empresa agéntica.