RETOUR
Agents speak data: are we ready to listen?

Langage des agents d'IA : sommes-nous prêts à les écouter ?

Les agents sont sous les projecteurs. Les bases posées ouvrent la voie à un avenir pérenne.

Dreamforce est une vitrine de ce qui nous attend : cette année, les agents d’IA sont à l'honneur. Ils promettent d'automatiser les décisions, d'anticiper les besoins et de décharger les équipes. Les démonstrations sont convaincantes mais avant de nous précipiter pour « créer un agent », il convient de se poser une question importante : quelles sont les conditions qui rendent possible l'existence d'un agent ?

C'est là que mes deux mondes se rejoignent. En tant que Directrice commerciale, je constate que les entreprises attendent de l'IA qu'elle leur apporte rapidité, autonomie et résultats mesurables. En tant que Chercheuse en sociologie, spécialisée dans notre relation avec les technologies numériques, je cherche à décortiquer les aspects moins visibles : comment les connaissances sont structurées, comment les humains font confiance ou résistent aux systèmes, comment les données elles-mêmes deviennent une forme de langage.

Car, fondamentalement, les données fonctionnent comme un langage. Les agents d’IA ne raisonnent pas comme les humains : ils analysent, assemblent et agissent selon la grammaire de l'information structurée. Si le vocabulaire est incohérent, si la syntaxe est défaillante, si le sens est fragmenté entre différents silos, l'agent d’IA proposera des réponses absurdes avec assurance. Se préparer à l’arrivée d’agents d’IA ne consiste donc pas tant à écrire du code lors de Dreamforce mais plutôt à utiliser votre langage actuel : comment vos données sont définies, gérées et partagées.

Et à côté de cette couche technique se trouve une couche humaine. Les agents d’IA modifient les flux de travail, les droits de décision et les responsabilités. Sans une gestion consciente du changement, le nouveau « langage » risque autant de donner du pouvoir que d'exclure.

Dans cet article, j'explore ces deux conditions (la préparation des données pour une plus grande clarté linguistique et la gestion du changement en tant que traduction culturelle) et développe pourquoi elles sont plus importantes que l'enthousiasme suscité par une démonstration.

Les données comme langage des agents d’IA

Si les agents sont conçus pour « agir », ils le font en interprétant le monde à travers les données qui leur sont fournies. Les données ne sont pas des informations neutres : elles constituent le vocabulaire et la grammaire qui façonnent ce que l'agent d’IA peut percevoir, décider et exécuter. En d'autres termes, la qualité d'un agent dépend de la qualité du langage qu'on lui apprend à parler.

Pensez à une langue dans laquelle il manque des mots, dont la syntaxe est fracturée ou dont les significations sont contradictoires. La communication devient fragile, les malentendus se multiplient et les nuances se perdent. C'est ce qui se produit lorsque les entreprises tentent de déployer des agents d’IA sur des ensembles de données fragmentés, des silos ou des structures de gouvernance mal définies. L'agent d’IA peut sembler fluide, mais sous la surface, il improvise avec des lacunes, des demi-vérités et des incohérences.

Vocabulaire incomplet : lorsque les données induisent les agents en erreur

  • Identité client : une même personne apparaît cinq fois sous différentes orthographes, adresses e-mail ou identifiants ? Les humains repèrent la duplication, mais pas les agents d’IA. Le « discours » de l'agent sera alors déformé, offrant des expériences fragmentées ou des recommandations inappropriées.
  • Hiérarchies de produits : imaginez une entreprise où le même produit est codé différemment dans les systèmes de vente, marketing et de chaîne d'approvisionnement. Un agent d’IA chargé « d'optimiser les stocks » se retrouvera dans un piège linguistique : le même objet est désigné par trois noms différents, il ne peut donc pas avoir une vue d'ensemble.
  • Nuances culturelles : dans les entreprises internationales, le mot « client » peut signifier « consommateur final » sur un marché et « partenaire de distribution » sur un autre. Lorsque cette nuance est perdue dans le modèle de données, l'agent risque d'agir sur la base d'hypothèses erronées, ce qui peut entraîner des conséquences commerciales bien réelles.

Ces points ne sont pas de simples inconvénients techniques. Ils révèlent quelque chose de plus profond : les catégories de données sont des décisions sociales. Lorsque nous définissons ce qui compte comme un « client », lorsque nous décidons quelles interactions enregistrer et lesquelles ignorer, nous ne nous contentons pas d'enregistrer la réalité, nous la façonnons. Comme nous le rappelle Pierre Bourdieu, nommer, c'est faire exister. En structurant les données, nous construisons effectivement le monde dans lequel nos agents d’IA évolueront.

Définir la grammaire des données

La question sociologique qui se pose alors est la suivante : qui décide de la grammaire de ce langage ? Souvent, ce sont les équipes techniques qui formalisent les schémas et les taxonomies. Mais les connaissances acquises par les travailleurs de première ligne — la façon dont ils décrivent un client, interprètent un statut, résolvent concrètement les problèmes — sont rarement intégrées dans l'ensemble de données. Il en résulte un vocabulaire restreint : les agents d’IA « parlent », mais ils ne disposent pas de la richesse de l'idiome humain qu'ils sont censés aider.

De la collecte à la cohérence des données

La question n'est pas « avez-vous suffisamment de données ? », mais plutôt :

  • Disposez-vous d'un « langage » cohérent que vos agents d’IA peuvent comprendre et mettre en pratique ?
  • Les définitions de vos données reflètent-elles la manière dont votre entreprise et vos équipes fonctionnent réellement et appréhendent le monde ?
  • Et peut-être plus important encore : existe-t-il un processus commun pour harmoniser et enrichir le langage entre les équipes commerciales et techniques ?

Les agents d’IA ne sont donc aussi puissants que la maîtrise de la langue dont ils héritent. Se préparer à leur arrivée consiste moins à adopter les dernières fonctionnalités qu'à cultiver un vocabulaire commun, intelligible et fiable dans toute l'organisation.

La gestion du changement comme traduction de la culture

Si les données sont le langage des agents d’IA, la gestion du changement est alors l'acte de traduction entre ce nouveau langage et les personnes censées le vivre. Trop souvent, les entreprises sous-estiment cette étape : elles partent du principe que si la technologie est puissante, son adoption suivra. Dans la pratique, c'est l'inverse qui est vrai. Sans traduction, le nouveau langage reste étranger, déstabilisant, voire excluant.

Quand la technologie modifie les rôles et les droits

Contrairement aux outils numériques précédents, les agents d’IA ne se contentent pas d'assister ; ils décident et agissent. Cela modifie la structure du travail opérationnel :

  • Les droits de décision évoluent : qui a l'autorité lorsque l'agent d’IA agit de manière autonome ?
  • La responsabilité devient ambiguë : si un agent d’IA commet une erreur, qui est responsable du résultat ?
  • Les rôles sont redéfinis : certaines tâches disparaissent, d'autres nécessitent de nouvelles compétences d'interprétation.

En sociologie, il ne s'agit pas seulement « d’ajustements opérationnels ». Ces points signalent des changements dans la manière dont le pouvoir et la responsabilité circulent au sein d'une entreprise. Si nous ne rendons pas ces changements explicites, ils peuvent sembler neutres ou automatiques, même s'ils ont des conséquences réelles sur la dynamique du lieu de travail.

La dimension émotionnelle de l'adoption des agents d’IA

Les agents d’IA ne font pas seulement évoluer les tâches, ils changent aussi la façon dont les équipes perçoivent leur place dans le système. Pour certains, les agents d’IA apportent un soulagement : les tâches répétitives sont supprimées, ce qui libère du temps pour des contributions plus créatives. Pour d'autres, ils provoquent de l'anxiété : les compétences semblent dévalorisées, l'expertise moins pertinente, l'avenir incertain. Ces réactions sont rarement exprimées dans les présentations PowerPoint, mais elles influencent l'adoption plus que n'importe quelle session de formation technique.

Il est tout aussi important de reconnaître cette dimension émotionnelle que de dispenser une formation technique, car elle influence l'adoption plus que les fonctionnalités seules.

Traduction pratique

Une gestion efficace du changement considère l'arrivée des agents d’IA comme un changement culturel qui doit être raconté, expliqué et assimilé collectivement. Cela signifie :

  • Cadrer le récit : pourquoi introduisons-nous des agents d’IA ? Quels problèmes résolvent-ils pour les personnes, et pas seulement pour les indicateurs clés de performance ?
  • Enseigner la nouvelle grammaire : la formation ne concerne pas seulement les boutons et les tableaux de bord ; il s'agit d'apprendre aux collaborateurs à interpréter et à remettre en question les résultats, à savoir quand faire confiance au système et quand intervenir.
  • Créer un dialogue : créer des forums où la résistance technologique, les préoccupations et les idées peuvent être exprimées, afin que le « nouveau langage » soit enrichi plutôt qu'imposé.

De l'adoption à l'appropriation

L'objectif n'est pas une adoption aveugle, mais une véritable appropriation, lorsque les collaborateurs ressentent que les agents d’IA étendent leur champ d'action plutôt que de le remplacer. Cela exige des entreprises qu'elles agissent moins comme des traducteurs d'une langue achevée et davantage comme des coauteurs d'un dialecte : en s'adaptant, en renégociant et en affinant au fur et à mesure.

De l'inspiration Dreamforce à l'action responsable

Dreamforce se nourrit d'inspiration. Les démonstrations sont conçues pour montrer ce qui est possible : en quelques clics, un agent d’IA apparaît et soudain, des processus complexes semblent rapides et faciles à réaliser. Cette énergie est précieuse, car elle nous aide à imaginer un avenir qui, sans cela, pourrait nous sembler lointain.

L'étincelle contre le script

Mais l'inspiration n'est qu'un début. La véritable valeur réside dans ce qui se passe après l'événement, une fois que nous sommes de retour dans nos entreprises. Pour créer des agents d’IA durables, il faut une préparation moins visible : aligner les données afin qu'elles parlent un langage cohérent, aider les équipes à s'adapter à leurs nouveaux rôles et créer un espace de dialogue sur la manière dont cette technologie change le travail quotidien.

Dans la pratique, cela signifie poser quelques questions clés :

  • Nos données sont-elles prêtes à fournir aux agents d’IA une vision claire et cohérente de la réalité ?
  • Nos équipes disposent-elles du contexte nécessaire pour comprendre et faire confiance aux résultats ?
  • Considérons-nous les agents d’IA comme des extensions du jugement humain plutôt que comme des substituts à celui-ci ?

Vu sous cet angle, Dreamforce peut être à la fois une vitrine passionnante et un point de contrôle utile. Il nous invite à associer l'inspiration à la préparation et à considérer les agents d’IA non seulement comme des projets techniques, mais aussi comme des parcours organisationnels.

Le chemin qui mène de la démonstration à la pratique quotidienne ne consiste pas à tempérer l'enthousiasme, mais à le canaliser vers une action responsable. Grâce à des bases de données solides et à une gestion réfléchie du changement, les agents d’IA qui nous inspirent à San Francisco peuvent également créer une valeur réelle et durable chez nous.

Parler un langage commun pour un écosystème harmonieux

Les agents d’IA sont à l'honneur lors de l’édition 2025 de Dreamforce, mais leur succès dépend de fondements beaucoup moins visibles. Les données doivent être traitées comme une langue — précise, cohérente et partagée — si l'on veut que ces agents s'expriment avec clarté plutôt qu'avec confusion. La gestion du changement doit agir comme une traduction culturelle, en veillant à ce que cette nouvelle langue soit non seulement comprise, mais aussi adoptée par les personnes qui vont la parler au quotidien. Aussi, l'inspiration doit mener à l'action : l'enthousiasme suscité par la démonstration doit déboucher sur un travail d'intégration patient et réfléchi.

Dans mon rôle quotidien de Directrice commerciale, je constate à quel point la demande de rapidité et d'automatisation est devenue urgente. En parallèle, en tant que Chercheuse en sociologie, je me rappelle que les technologies n'arrivent pas sans base. Elles remodèlent la façon dont nous organisons les connaissances, dont nous répartissons les responsabilités et dont nous nous faisons confiance les uns les autres.

La véritable opportunité ne consiste donc pas seulement à créer des agents d’IA, mais aussi à mettre en place les conditions dans lesquelles ils peuvent fonctionner de manière agréable, des conditions où les données parlent un langage clair, où les équipes se sentent inclues dans la traduction et où l'inspiration alimente la responsabilité à long terme.

Dreamforce est une formidable occasion d'imaginer l'avenir. Mais les transformations les plus significatives se produiront après, dans le cadre d'un travail plus discret d'alignement, de traduction et de préparation. C'est là que les agents d’IA cesseront d'être des nouveautés et deviendront des compagnons durables dans notre façon de travailler et de prendre des décisions ensemble. La question est la suivante : sommes-nous prêts à écouter le langage qu'ils parlent ?

Andrea Gacanin

Auteur : Andrea Gacanin, Directrice des ventes et chercheuse

Andrea est Directrice commerciale chez OSF Digital et possède plus de 17 ans d'expérience internationale dans les domaines de la géopolitique, de l'éducation, des technologies de l'information et des biens de grande consommation. Elle est spécialisée dans la vente dans l'environnement cloud et aide ses clients à aborder la transformation digitale avec confiance et clarté. Au-delà de son rôle chez OSF, Andrea poursuit des recherches doctorales à l'Université Paris 8 sur l'intersection entre la technologie, la société et le capitalisme de surveillance. Elle est également une fervente adepte de l'ultra-marathon.