
Suivre le rythme des nouvelles fonctionnalités d'OpenAI peut donner l'impression d'avoir enfin compris quelque chose, pour qu'ils sortent une toute nouvelle fonctionnalité le lendemain. Un jour, vous commencez à maîtriser les plugins, et le lendemain, ils sont remplacés par quelque chose appelé "GPTs" qui utilise des "Actions". Si vous essayez de comprendre comment votre entreprise peut réellement utiliser l'IA, ce remaniement constant peut être plus déroutant qu'utile.
Cet article est là pour y voir plus clair. Nous allons décortiquer les termes clés de l'univers d'OpenAI : les plugins (ce que nous avions avant), les GPTs personnalisés (ce que nous avons maintenant), et les Actions (le moteur qui les fait fonctionner). Nous examinerons ce qu'ils sont, ce qu'ils peuvent faire et, plus important encore, où ils échouent pour l'automatisation des processus métier concrets.
Bien que ces outils soient un aperçu fascinant de ce qui nous attend, vous verrez pourquoi une approche plus ciblée et spécialement conçue est souvent ce dont vous avez réellement besoin pour accomplir vos tâches.
Un bref historique de l'extension de ChatGPT
Pour vraiment comprendre ce qui se passe maintenant, il est utile de voir comment nous en sommes arrivés là. Faisons un rapide tour d'horizon de l'évolution des plugins vers la configuration actuelle des GPTs personnalisés et des Actions.
Comprendre les plugins ChatGPT
Vous vous souvenez des plugins ? C'était la première véritable tentative d'OpenAI pour permettre à ChatGPT de communiquer avec le monde extérieur. Considérez-les comme de petits modules complémentaires que vous pouviez trouver dans une boutique dédiée, chacun donnant une nouvelle compétence au ChatGPT standard. Un plugin pouvait lui permettre de rechercher des vols sur Kayak, tandis qu'un autre pouvait récupérer des données météorologiques en temps réel.
Leur véritable magie résidait dans le fait que vous pouviez les combiner. Vous pouviez avoir jusqu'à trois plugins différents fonctionnant dans la même conversation. C'était une avancée considérable. Vous pouviez demander des options de vol, vérifier la météo à votre destination et chercher des réservations de restaurant, le tout dans une seule discussion continue. On avait l'impression d'avoir un véritable outil multifonction.
Mais OpenAI a décidé de prendre une autre direction, et les plugins sont maintenant progressivement abandonnés au profit d'un nouveau système plus intégré.
Que sont les GPTs personnalisés ?
Les GPTs personnalisés sont le remplacement officiel des plugins. Ce sont des versions spécialisées de ChatGPT que n'importe qui peut créer pour une tâche spécifique, souvent sans toucher à une seule ligne de code. Vous pourriez créer un GPT qui serait un tuteur de mathématiques sympathique pour vos enfants, un guide connaissant toutes les règles de votre jeu de société préféré, ou un assistant qui répond aux questions en se basant sur les documents privés de votre entreprise.
Ils sont construits sur deux éléments principaux :
-
Instructions personnalisées : Il s'agit essentiellement d'un ensemble d'instructions fixes que vous donnez au GPT pour définir sa personnalité et son rôle. Par exemple, vous pourriez lui dire : "Tu es un assistant serviable pour une entreprise de logiciels. Réponds toujours sur un ton amical et encourageant."
-
Connaissances : Vous pouvez téléverser vos propres fichiers, comme des PDF ou des feuilles de calcul, pour donner au GPT une base de connaissances spécifique d'où il peut tirer ses réponses.
En fin de compte, un GPT personnalisé est un chatbot spécialisé, peaufiné pour être un expert sur un sujet très précis.
Que sont les actions GPT ?
Les Actions sont ce qui donne leur véritable puissance aux GPTs personnalisés. C'est l'élément qui permet à un GPT de se connecter au monde extérieur en appelant des API externes. En termes simples, les Actions sont le remplacement technique de l'ancien système de plugins.
Une "Action" n'est pas quelque chose que vous utilisez seule. C'est une capacité que vous intégrez dans un GPT personnalisé pour lui permettre de faire des choses au-delà de la simple conversation. Par exemple, vous pourriez créer une Action qui permet à votre GPT de vérifier le statut de la commande d'un client dans votre base de données, de créer un nouveau ticket dans votre service d'assistance, ou d'ajouter un prospect à votre CRM.
Bien que l'idée soit solide, la mise en place d'Actions n'est pas aussi simple que de téléverser un PDF. Cela nécessite un certain confort technique, impliquant généralement quelque chose appelé une spécification OpenAPI qui indique au GPT comment communiquer avec vos autres outils.
Comparaison des capacités
Maintenant que nous connaissons les définitions, passons à la pratique. Le passage des plugins aux GPTs n'était pas qu'un simple changement de nom ; il a modifié ce qui est possible et a introduit de nouvelles complications.
L'avantage perdu : combiner plusieurs outils
Vous pouviez demander à un plugin de voyage les meilleurs vols pour Miami, puis, dans la même discussion, demander à un plugin météo les prévisions. L'IA comprenait le contexte et utilisait les deux outils pour vous donner une réponse complète.
Avec les GPTs personnalisés, cette capacité a disparu.
Vous ne pouvez utiliser qu'un seul GPT personnalisé à la fois. Chacun est coincé dans son propre silo, incapable de communiquer avec un autre ou d'utiliser ses compétences. Si vous avez un "GPT Météo" et un "GPT Voyage", vous devez ouvrir deux discussions distinctes. Cela rend impossible la gestion de tâches nécessitant des informations ou des actions de plusieurs systèmes, ce qui correspond pourtant à la quasi-totalité des flux de travail en entreprise.
La puissance et les pièges d'une conception à usage unique
La principale force d'un GPT personnalisé est sa concentration. Si vous téléversez une base de connaissances spécifique, vous pouvez créer un "expert" assez efficace sur ce sujet unique. Par exemple, un GPT formé sur vos politiques RH internes peut faire un travail décent pour répondre aux questions des employés sur les avantages sociaux ou les congés.
Le problème, c'est que les vrais processus métier ne sont presque jamais aussi simples. Un problème de support client, par exemple, est tout un parcours, pas une seule question. Il peut impliquer de :
-
Déterminer à quel département le ticket doit être attribué.
-
Consulter l'historique des commandes du client dans Shopify.
-
Vérifier le statut de son abonnement dans votre système de facturation.
-
Mettre à jour le ticket dans Zendesk.
-
Rédiger une réponse personnelle basée sur toutes les informations recueillies.
Un GPT personnalisé peut être entraîné pour faire l'une de ces choses, mais il ne peut pas gérer l'ensemble du flux. Il est bon pour récupérer une seule information, mais il échoue lorsqu'il s'agit de gérer un flux de travail complet. Pour cela, vous avez besoin d'un véritable moteur de flux de travail. Les plateformes d'IA comme eesel AI sont conçues pour gérer ces séquences complexes, comme le tri des tickets, la récupération des détails du client et la rédaction d'une réponse réfléchie, le tout en un seul processus automatisé.
Un schéma montrant un flux d'automatisation du support en plusieurs étapes, qui nécessite une plateforme spécialement conçue plutôt qu'un GPT à usage unique.
L'expérience utilisateur : de maladroite à peu fiable
Au-delà des limitations générales, l'expérience réelle de la création avec les outils d'OpenAI peut être un peu décevante. Il y a une grande différence entre une démonstration technologique cool et un outil professionnel sur lequel vous pouvez compter.
Le défi de la configuration : est-ce vraiment du 'no-code' ?
Créer un GPT de base, basé sur des connaissances, est vraiment simple. Vous discutez avec une interface, téléversez quelques documents, et voilà, vous avez un chatbot spécialisé. C'est impressionnant.
Mais dès que vous voulez ajouter des fonctions réelles avec les Actions, cette promesse du "no-code" commence à s'effriter. On s'attend soudainement à ce que vous compreniez les spécifications OpenAPI, que vous gériez l'authentification par clé API et que vous compreniez pourquoi un appel a échoué sans de véritables outils de développement. Comme de nombreux créateurs l'ont souligné sur Hacker News, l'expérience peut être boguée, incohérente et déroutante. Les outils mêmes censés autonomiser les personnes non techniques deviennent rapidement un obstacle technique majeur.
Les pièces manquantes pour l'automatisation d'entreprise
Lorsque vous essayez d'utiliser des GPTs personnalisés pour des processus métier sérieux, vous vous heurtez assez vite à un mur. Il leur manque quelques fonctionnalités clés qui sont essentielles pour tout type d'automatisation fiable :
-
Pas d'enchaînement d'étapes : Les Actions ne sont que des appels uniques. Vous ne pouvez pas créer une séquence fiable où le résultat d'une action alimente la suivante. Cela rend la construction de tout flux de travail en plusieurs étapes un exercice fragile et sujet aux erreurs.
-
Mémoire limitée : Lors d'une longue conversation ou d'une tâche complexe, les GPTs peuvent oublier les instructions précédentes ou perdre un contexte important. Ce manque de fiabilité est un obstacle majeur pour tout processus qui doit s'exécuter de la même manière à chaque fois.
-
Manque d'intégrations natives : Besoin de vous connecter à un outil comme Slack ? Vous devez créer une Action personnalisée pour chaque fonction dont vous avez besoin. C'est une perte de temps considérable par rapport aux plateformes qui offrent de vastes bibliothèques de connecteurs pré-construits et activables en un clic.
Ces lacunes sont exactement ce que les plateformes d'automatisation spécialisées sont conçues pour combler. Par exemple, eesel AI fournit un moteur de flux de travail entièrement personnalisable avec des intégrations natives en un clic pour les services d'assistance, les outils de chat et les sources de connaissances. Vous pouvez facilement créer, tester et lancer des agents IA en plusieurs étapes en utilisant son mode de simulation, en vous assurant que tout fonctionne parfaitement avant même de parler à un client.
La plateforme eesel AI montrant un mode de simulation, une fonctionnalité clé pour une automatisation d'entreprise fiable qui n'est pas disponible lors de la comparaison GPTs vs Actions vs Plugins.
Comprendre les coûts et la sécurité
Pour toute entreprise, la conversation sur les nouvelles technologies se résume finalement à deux choses : combien ça coûte, et est-ce sécurisé ?
Le modèle de tarification
Pour utiliser ou créer des GPTs personnalisés, vous avez besoin d'un abonnement payant à ChatGPT ; ils ne sont pas disponibles avec le plan gratuit. Voici un aperçu rapide de la tarification officielle :
| Abonnement | Prix (facturé mensuellement) | Fonctionnalités clés pour les GPTs |
|---|---|---|
| Plus | 20 $/utilisateur/mois | Accès à GPT-4, créer et utiliser des GPTs personnalisés. |
| Business | 30 $/utilisateur/mois (25 $ si annuel) | Tout ce qui est dans Plus + espace de travail dédié, contrôles d'administration, données exclues de l'entraînement par défaut. |
| Enterprise | Contacter le service commercial | Tout ce qui est dans Business + sécurité de niveau entreprise, rétention des données personnalisée, support dédié. |
Préoccupations concernant la confidentialité des données
C'est un point très important. Si vous utilisez un abonnement individuel ChatGPT Plus, vos conversations et tous les fichiers que vous téléversez peuvent être utilisés pour entraîner les modèles d'OpenAI, à moins que vous ne fouilliez dans les paramètres pour vous désinscrire.
Bien que les abonnements Business et Enterprise offrent une meilleure protection de la vie privée par défaut, de nombreuses entreprises commencent à expérimenter avec un compte Plus, mettant sans le savoir des informations sensibles en danger. Pour une entreprise, la confidentialité des données ne peut pas être une réflexion après coup ou une option payante.
Elle doit être la norme. Des plateformes comme eesel AI sont conçues dès le départ avec la sécurité d'entreprise à l'esprit. Vos données ne sont jamais utilisées pour entraîner des modèles généralistes, elles sont chiffrées partout et peuvent être hébergées dans l'UE sur demande, garantissant que vos connaissances restent toujours les vôtres.
GPTs vs Actions vs Plugins : choisir le bon outil pour une véritable automatisation
Alors, quel est le verdict final sur GPTs vs Actions vs Plugins ?
-
Les Plugins étaient une première étape pionnière mais désordonnée vers une IA plus capable.
-
Les GPTs personnalisés sont un outil fantastique pour créer des chatbots personnalisés et des experts en connaissances pour vous-même ou une petite équipe.
-
Les Actions donnent aux GPTs leur véritable puissance, mais elles sont encore trop techniques et imprévisibles pour construire des processus métier sur lesquels vous pouvez compter.
Pour une véritable automatisation d'entreprise, en particulier dans des domaines critiques comme le support client, vous avez besoin de plus qu'un outil générique à usage unique. L'avenir appartient aux plateformes d'agents IA intégrées, conçues dès le départ pour gérer la complexité, la fiabilité et la sécurité dont les entreprises ont besoin.
Créez un véritable agent de support IA en quelques minutes
Fatigué des limitations, des obstacles techniques et des soucis de confidentialité liés à la création sur ChatGPT ? eesel AI offre une plateforme véritablement en libre-service pour créer et déployer de puissants agents IA pour le support client. Vous pouvez unifier toutes vos connaissances, automatiser des flux de travail entiers et être opérationnel en quelques minutes, pas en quelques mois. Essayez-le gratuitement dès aujourd'hui.
Foire aux questions
Les Plugins étaient les premiers modules complémentaires d'OpenAI pour ChatGPT, lui permettant de se connecter à des services externes et souvent de fonctionner ensemble. Les GPTs personnalisés sont des versions spécialisées de ChatGPT, conçues pour des tâches spécifiques, tandis que les Actions sont le remplacement technique des plugins, permettant aux GPTs de se connecter à des API externes, mais généralement un seul par GPT.
OpenAI visait une expérience plus intégrée et personnalisable. Les GPTs personnalisés offrent un moyen plus simple pour les utilisateurs de créer des chatbots sur mesure, et les Actions fournissent le mécanisme sous-jacent pour que ces GPTs interagissent avec des outils externes, consolidant ainsi les fonctionnalités sous l'égide des GPTs.
Une limitation principale est l'incapacité de combiner plusieurs GPTs personnalisés ou Actions dans une seule conversation, ce qui empêche les flux de travail complexes et en plusieurs étapes. Ils manquent également d'un enchaînement d'étapes robuste, d'une mémoire persistante pour les tâches longues et des intégrations natives cruciales pour une automatisation d'entreprise fiable.
Malheureusement, non. Contrairement à l'ancien système de plugins, vous ne pouvez utiliser qu'un seul GPT personnalisé à la fois, et chaque GPT s'intègre généralement avec des Actions spécifiques. Cela signifie que vous ne pouvez pas facilement enchaîner différentes capacités ou outils au sein d'une seule interaction.
La création d'un GPT personnalisé de base, basé sur les connaissances, est en grande partie "no-code". Cependant, l'intégration de fonctions du monde réel à l'aide des Actions nécessite souvent des connaissances techniques des spécifications OpenAPI et de la gestion des API, ce qui fait que la promesse du "no-code" s'effrite pour les cas d'utilisation avancés.
Avec les abonnements individuels ChatGPT Plus, vos données peuvent être utilisées pour l'entraînement des modèles, sauf si vous vous désinscrivez. Les abonnements Business et Enterprise offrent une confidentialité par défaut plus forte, mais il est crucial de comprendre les politiques de données d'OpenAI et d'envisager des plateformes dédiées qui offrent une sécurité de niveau entreprise et une isolation des données.
Pour une automatisation d'entreprise complexe et fiable, en particulier dans des domaines comme le support client, les plateformes d'agents IA dédiées sont souvent plus adaptées. Ces plateformes sont spécialement conçues pour gérer des flux de travail en plusieurs étapes, offrir des intégrations robustes, fournir une meilleure sécurité des données et garantir des performances constantes.








