
Dreamforce est une vitrine de ce qui nous attend : cette année, les agents d’IA sont à l'honneur. Ils promettent d'automatiser les décisions, d'anticiper les besoins et de décharger les équipes. Les démonstrations sont convaincantes mais avant de nous précipiter pour « créer un agent », il convient de se poser une question importante : quelles sont les conditions qui rendent possible l'existence d'un agent ?
C'est là que mes deux mondes se rejoignent. En tant que Directrice commerciale, je constate que les entreprises attendent de l'IA qu'elle leur apporte rapidité, autonomie et résultats mesurables. En tant que Chercheuse en sociologie, spécialisée dans notre relation avec les technologies numériques, je cherche à décortiquer les aspects moins visibles : comment les connaissances sont structurées, comment les humains font confiance ou résistent aux systèmes, comment les données elles-mêmes deviennent une forme de langage.
Car, fondamentalement, les données fonctionnent comme un langage. Les agents d’IA ne raisonnent pas comme les humains : ils analysent, assemblent et agissent selon la grammaire de l'information structurée. Si le vocabulaire est incohérent, si la syntaxe est défaillante, si le sens est fragmenté entre différents silos, l'agent d’IA proposera des réponses absurdes avec assurance. Se préparer à l’arrivée d’agents d’IA ne consiste donc pas tant à écrire du code lors de Dreamforce mais plutôt à utiliser votre langage actuel : comment vos données sont définies, gérées et partagées.
Et à côté de cette couche technique se trouve une couche humaine. Les agents d’IA modifient les flux de travail, les droits de décision et les responsabilités. Sans une gestion consciente du changement, le nouveau « langage » risque autant de donner du pouvoir que d'exclure.
Dans cet article, j'explore ces deux conditions (la préparation des données pour une plus grande clarté linguistique et la gestion du changement en tant que traduction culturelle) et développe pourquoi elles sont plus importantes que l'enthousiasme suscité par une démonstration.
Si les agents sont conçus pour « agir », ils le font en interprétant le monde à travers les données qui leur sont fournies. Les données ne sont pas des informations neutres : elles constituent le vocabulaire et la grammaire qui façonnent ce que l'agent d’IA peut percevoir, décider et exécuter. En d'autres termes, la qualité d'un agent dépend de la qualité du langage qu'on lui apprend à parler.
Pensez à une langue dans laquelle il manque des mots, dont la syntaxe est fracturée ou dont les significations sont contradictoires. La communication devient fragile, les malentendus se multiplient et les nuances se perdent. C'est ce qui se produit lorsque les entreprises tentent de déployer des agents d’IA sur des ensembles de données fragmentés, des silos ou des structures de gouvernance mal définies. L'agent d’IA peut sembler fluide, mais sous la surface, il improvise avec des lacunes, des demi-vérités et des incohérences.
Ces points ne sont pas de simples inconvénients techniques. Ils révèlent quelque chose de plus profond : les catégories de données sont des décisions sociales. Lorsque nous définissons ce qui compte comme un « client », lorsque nous décidons quelles interactions enregistrer et lesquelles ignorer, nous ne nous contentons pas d'enregistrer la réalité, nous la façonnons. Comme nous le rappelle Pierre Bourdieu, nommer, c'est faire exister. En structurant les données, nous construisons effectivement le monde dans lequel nos agents d’IA évolueront.
La question sociologique qui se pose alors est la suivante : qui décide de la grammaire de ce langage ? Souvent, ce sont les équipes techniques qui formalisent les schémas et les taxonomies. Mais les connaissances acquises par les travailleurs de première ligne — la façon dont ils décrivent un client, interprètent un statut, résolvent concrètement les problèmes — sont rarement intégrées dans l'ensemble de données. Il en résulte un vocabulaire restreint : les agents d’IA « parlent », mais ils ne disposent pas de la richesse de l'idiome humain qu'ils sont censés aider.
La question n'est pas « avez-vous suffisamment de données ? », mais plutôt :
Les agents d’IA ne sont donc aussi puissants que la maîtrise de la langue dont ils héritent. Se préparer à leur arrivée consiste moins à adopter les dernières fonctionnalités qu'à cultiver un vocabulaire commun, intelligible et fiable dans toute l'organisation.
Si les données sont le langage des agents d’IA, la gestion du changement est alors l'acte de traduction entre ce nouveau langage et les personnes censées le vivre. Trop souvent, les entreprises sous-estiment cette étape : elles partent du principe que si la technologie est puissante, son adoption suivra. Dans la pratique, c'est l'inverse qui est vrai. Sans traduction, le nouveau langage reste étranger, déstabilisant, voire excluant.
Contrairement aux outils numériques précédents, les agents d’IA ne se contentent pas d'assister ; ils décident et agissent. Cela modifie la structure du travail opérationnel :
En sociologie, il ne s'agit pas seulement « d’ajustements opérationnels ». Ces points signalent des changements dans la manière dont le pouvoir et la responsabilité circulent au sein d'une entreprise. Si nous ne rendons pas ces changements explicites, ils peuvent sembler neutres ou automatiques, même s'ils ont des conséquences réelles sur la dynamique du lieu de travail.
Les agents d’IA ne font pas seulement évoluer les tâches, ils changent aussi la façon dont les équipes perçoivent leur place dans le système. Pour certains, les agents d’IA apportent un soulagement : les tâches répétitives sont supprimées, ce qui libère du temps pour des contributions plus créatives. Pour d'autres, ils provoquent de l'anxiété : les compétences semblent dévalorisées, l'expertise moins pertinente, l'avenir incertain. Ces réactions sont rarement exprimées dans les présentations PowerPoint, mais elles influencent l'adoption plus que n'importe quelle session de formation technique.
Il est tout aussi important de reconnaître cette dimension émotionnelle que de dispenser une formation technique, car elle influence l'adoption plus que les fonctionnalités seules.
Une gestion efficace du changement considère l'arrivée des agents d’IA comme un changement culturel qui doit être raconté, expliqué et assimilé collectivement. Cela signifie :
L'objectif n'est pas une adoption aveugle, mais une véritable appropriation, lorsque les collaborateurs ressentent que les agents d’IA étendent leur champ d'action plutôt que de le remplacer. Cela exige des entreprises qu'elles agissent moins comme des traducteurs d'une langue achevée et davantage comme des coauteurs d'un dialecte : en s'adaptant, en renégociant et en affinant au fur et à mesure.
Dreamforce se nourrit d'inspiration. Les démonstrations sont conçues pour montrer ce qui est possible : en quelques clics, un agent d’IA apparaît et soudain, des processus complexes semblent rapides et faciles à réaliser. Cette énergie est précieuse, car elle nous aide à imaginer un avenir qui, sans cela, pourrait nous sembler lointain.
Mais l'inspiration n'est qu'un début. La véritable valeur réside dans ce qui se passe après l'événement, une fois que nous sommes de retour dans nos entreprises. Pour créer des agents d’IA durables, il faut une préparation moins visible : aligner les données afin qu'elles parlent un langage cohérent, aider les équipes à s'adapter à leurs nouveaux rôles et créer un espace de dialogue sur la manière dont cette technologie change le travail quotidien.
Dans la pratique, cela signifie poser quelques questions clés :
Vu sous cet angle, Dreamforce peut être à la fois une vitrine passionnante et un point de contrôle utile. Il nous invite à associer l'inspiration à la préparation et à considérer les agents d’IA non seulement comme des projets techniques, mais aussi comme des parcours organisationnels.
Le chemin qui mène de la démonstration à la pratique quotidienne ne consiste pas à tempérer l'enthousiasme, mais à le canaliser vers une action responsable. Grâce à des bases de données solides et à une gestion réfléchie du changement, les agents d’IA qui nous inspirent à San Francisco peuvent également créer une valeur réelle et durable chez nous.
Les agents d’IA sont à l'honneur lors de l’édition 2025 de Dreamforce, mais leur succès dépend de fondements beaucoup moins visibles. Les données doivent être traitées comme une langue — précise, cohérente et partagée — si l'on veut que ces agents s'expriment avec clarté plutôt qu'avec confusion. La gestion du changement doit agir comme une traduction culturelle, en veillant à ce que cette nouvelle langue soit non seulement comprise, mais aussi adoptée par les personnes qui vont la parler au quotidien. Aussi, l'inspiration doit mener à l'action : l'enthousiasme suscité par la démonstration doit déboucher sur un travail d'intégration patient et réfléchi.
Dans mon rôle quotidien de Directrice commerciale, je constate à quel point la demande de rapidité et d'automatisation est devenue urgente. En parallèle, en tant que Chercheuse en sociologie, je me rappelle que les technologies n'arrivent pas sans base. Elles remodèlent la façon dont nous organisons les connaissances, dont nous répartissons les responsabilités et dont nous nous faisons confiance les uns les autres.
La véritable opportunité ne consiste donc pas seulement à créer des agents d’IA, mais aussi à mettre en place les conditions dans lesquelles ils peuvent fonctionner de manière agréable, des conditions où les données parlent un langage clair, où les équipes se sentent inclues dans la traduction et où l'inspiration alimente la responsabilité à long terme.
Dreamforce est une formidable occasion d'imaginer l'avenir. Mais les transformations les plus significatives se produiront après, dans le cadre d'un travail plus discret d'alignement, de traduction et de préparation. C'est là que les agents d’IA cesseront d'être des nouveautés et deviendront des compagnons durables dans notre façon de travailler et de prendre des décisions ensemble. La question est la suivante : sommes-nous prêts à écouter le langage qu'ils parlent ?