Dans un contexte où l'IA évolue rapidement, l'apparition de DeepSeek constitue une avancée majeure pour les entreprises cherchant à transformer l'intelligence artificielle. Ce moteur innovant redéfinit le marché en utilisant le Reinforcement Learning (RL) pour introduire des innovations inédites. Le modèle R1 de DeepSeek, avec un coût d'entraînement remarquablement bas de 6 millions de dollars, a capté l'attention des marchés et des experts financiers, remettant en question le statu quo et établissant de nouvelles normes pour le développement de l'IA. Cependant, il est crucial de noter que l'efficacité de cette méthode reste à prouver et que le faible coût annoncé n'a pas encore été vérifié.
La méthode Chain of Thought (CoT) permet aux modèles d'IA de générer des étapes de raisonnement intermédiaires pour résoudre des problèmes complexes, améliorant ainsi le raisonnement logique en décomposant les tâches en segments plus atomiques.
Reinforcement Learning (RL) est une approche d'apprentissage automatique où un agent apprend en interagissant avec son environnement, recevant des récompenses ou des pénalités. L'objectif est de maximiser les récompenses cumulées, permettant à l'agent de découvrir des stratégies optimales à travers ses succès et ses erreurs.
Le modèle R1 de DeepSeek se positionne comme un concurrent redoutable de GPT-O1, notamment en matière de raisonnement. En mettant l'accent sur les « Large Language Models » (LLM) et le raisonnement, DeepSeek a repoussé les limites de ce qui était considéré possible. Dans sa troisième itération, le modèle a réalisé des progrès notables en raisonnement mathématique et a amélioré sa capacité à communiquer la logique en langage humain. Cette avancée représente non seulement une prouesse technique, mais aussi un espoir quant au potentiel du RL pur pour permettre aux LLM d'apprendre et de raisonner de manière autonome, remettant en question l'idée dominante selon laquelle de grandes quantités de données CoT sont nécessaires. Toutefois, il est essentiel de reconnaître que DeepSeek n'a pas été testé de manière exhaustive, certains rapports évoquant même des vulnérabilités potentielles.
L'une des caractéristiques principales de DeepSeek est son accessibilité. Gratuit pour les utilisateurs généraux, il offre une connectivité unique à Internet, fournissant des recommandations accompagnées d'explications sur son processus de pensée. Cette transparence dans la prise de décision de l'IA représente un grand pas en avant, favorisant la confiance et la compréhension des utilisateurs. De plus, l'équipe de développement de DeepSeek, composée d'environ 140 employés, principalement de jeunes diplômés d'universités chinoises, souligne la réémergence de la Chine dans l'innovation en matière d'IA, malgré des défis tels que l'interdiction des GPU.
Alors que les entreprises s'engagent dans leur transformation autour de l'IA, la confiance doit rester au cœur de leurs principes. Avant de déployer des outils comme DeepSeek, il est crucial d'établir des politiques robustes en matière d'IA et de données, incluant des principes d'anonymisation et de cryptage, de permissions et de contrôles d'accès, ainsi que le respect des réglementations et normes en vigueur. Une stratégie de « confiance dès la conception » doit être adoptée, avec des équipes dédiées à la protection de la vie privée et à la sécurité, gérant les risques liés aux tiers, surveillant et vérifiant en permanence l'utilisation de l'IA, et maintenant une communication ouverte au sein des organisations.
Malgré ses capacités prometteuses, certains défis majeurs entravent l'utilisation professionnelle de DeepSeek. Le suivi et la collecte d'informations inutiles sur les appareils, l'identification des modèles et le stockage des données exclusivement sur le territoire chinois suscitent des inquiétudes. De plus, la faiblesse du cryptage pose le risque d'interactions interceptées, qui, même anonymisées, peuvent potentiellement permettre de remonter jusqu'aux utilisateurs.
Face à ces défis, les organisations doivent explorer des alternatives qui répondent à leurs besoins en matière de sécurité et de conformité. Chez OSF, nous utilisons AllAi, un outil d'IA sécurisé et efficace conçu pour les entreprises travaillant avec les technologies Salesforce. AllAi offre une solution robuste et fiable, garantissant que la transformation de l'IA est à la fois innovante et sécurisée. Pour OSF, la réduction potentielle des coûts des LLM génériques est intéressante, mais notre véritable avantage réside dans la façon dont AllAi affine et personnalise nos modèles derrière des pare-feu sécurisés.
En conclusion, bien que DeepSeek représente une avancée significative dans les capacités de l'IA, les organisations doivent faire preuve de prudence face aux défis qu'il pose. En donnant la priorité à la confiance et en explorant des alternatives sécurisées comme AllAi, les entreprises peuvent exploiter le pouvoir de transformation de l'IA de manière responsable et efficace.
Gerry, membre fondateur et ancien PDG d'OSF Digital, apporte une richesse d'expérience et de leadership à son nouveau rôle de Chief AI Officer. Avec un solide parcours dans l'innovation et la croissance stratégique, il s'attache à mener les initiatives d'OSF en matière d'IA au niveau supérieur.