
Le PDG d'OpenAI, Sam Altman, a commencé cette année en disant dans un article de blog que 2025 serait une année importante pour les agents d'IA, des outils qui peuvent automatiser des tâches et agir en votre nom.
Maintenant, nous voyons la première tentative réelle d'OpenAI.
OpenAI a annoncé jeudi le lancement d'une prévisualisation de recherche de Operator, un agent d'IA polyvalent qui peut prendre le contrôle d'un navigateur Web et effectuer indépendamment certaines actions. Operator arrive d'abord aux utilisateurs américains sur le plan d'abonnement Pro de ChatGPT à 200 $. OpenAI prévoit de déployer cette fonctionnalité à plus d'utilisateurs dans ses niveaux Plus, Équipe et Entreprise à terme.
"[Opérateur] sera bientôt dans d'autres pays", a déclaré le PDG d'OpenAI, Sam Altman, lors d'une diffusion en direct jeudi. "L'Europe prendra malheureusement un certain temps."
Cette prévisualisation de recherche initiale est disponible via operator.chatgpt.com, mais OpenAI dit qu'elle souhaite intégrer Operator à l'ensemble de ses clients ChatGPT.

Operator promet d'automatiser des tâches telles que la réservation d'hébergements, la réservation de restaurants et les achats en ligne, selon OpenAI. Il existe plusieurs catégories de tâches que les utilisateurs peuvent choisir dans l'interface de Operator, notamment le shopping, la livraison, les repas et les voyages, permettant tous différents types d'automatisation.
Lorsque les utilisateurs de ChatGPT activent Operator, une petite fenêtre s'ouvre montrant un navigateur Web dédié que l'agent utilise pour accomplir des tâches, avec des explications des actions spécifiques que l'agent effectue. Les utilisateurs peuvent toujours prendre le contrôle de leur écran pendant que Operator travaille, car Operator utilise son propre navigateur dédié.
OpenAI indique que Operator est alimenté par un modèle d'agent utilisant un ordinateur, ou CUA, qui combine les capacités de vision du modèle GPT-4o de la société avec les capacités de raisonnement des modèles plus avancés d'OpenAI. Le CUA est formé pour interagir avec le front-end des sites Web, ce qui signifie qu'il n'a pas besoin d'utiliser des API orientées développeurs pour se connecter à différents services.
En d'autres termes, le CUA peut utiliser des boutons, naviguer dans des menus et remplir des formulaires sur une page Web de la même manière qu'un humain le ferait.
OpenAI dit collaborer avec des entreprises comme DoorDash, eBay, Instacart, Priceline, StubHub et Uber pour s'assurer que Operator respecte les accords de termes de service de ces entreprises.

"Le modèle CUA est formé pour demander une confirmation de l'utilisateur avant de finaliser des tâches avec des effets secondaires externes, par exemple avant de soumettre une commande, d'envoyer un e-mail, etc., afin que l'utilisateur puisse vérifier le travail du modèle avant qu'il ne soit permanent", écrit OpenAI dans les documents fournis à TechCrunch. "Il s'est déjà révélé utile dans divers cas, et nous visons à étendre cette fiabilité à un éventail plus large de tâches."
Mais OpenAI prévient que le CUA n'est pas parfait. La société déclare qu'elle "ne s'attend pas à ce que le CUA fonctionne de manière fiable dans tous les scénarios pour le moment".
"Actuellement, Operator ne peut pas gérer de manière fiable de nombreuses tâches complexes ou spécialisées", ajoute OpenAI dans un document d'assistance, "comme la création de diaporamas détaillés, la gestion de systèmes de calendrier complexes, ou l'interaction avec des interfaces Web hautement personnalisées ou non standard."
Par précaution, OpenAI exige également une supervision pour certaines tâches, comme les transactions bancaires, que le CUA et Operator pourraient effectuer principalement par eux-mêmes. Les utilisateurs devront intervenir pour saisir les informations de carte de crédit, par exemple. OpenAI affirme que Operator ne collecte ni ne prend de capture d'écran des données.
"Sur des sites Web particulièrement sensibles, comme les e-mails, Operator nécessite une supervision active de l'utilisateur, garantissant que les utilisateurs peuvent directement repérer et corriger d'éventuelles erreurs que le modèle pourrait commettre", explique OpenAI dans ses documents d'assistance.
Cela limite l'utilité de Operator, c'est sûr, mais garantit également que l'agent ne fasse pas d'hallucinations et, par exemple, n'utilise pas votre paiement hypothécaire pour acheter des chaises d'appoint. Google a adopté une approche similaire avec son agent d'IA Project Mariner, qui ne remplit pas non plus les informations comme les numéros de carte de crédit.
Limitations
Operator a quelques limitations à noter.
Il existe des limites de taux - à la fois quotidiennes et dépendantes des tâches. OpenAI dit que Operator peut effectuer plusieurs tâches à la fois, mais qu'il y a des "limites dynamiques" à cela. Il y a également une limite d'utilisation globale qui se réinitialise quotidiennement.
À ce stade de publication, Operator refusera également d'effectuer des tâches pour des raisons de sécurité, comme l'envoi d'e-mails (malgré le fait que le CUA soit capable de le faire) et la suppression d'événements de calendrier. OpenAI dit que cela changera à l'avenir, mais ne donne pas de date prévue.
Operator peut également "rester bloqué" s'il rencontre une interface particulièrement complexe, un champ de mot de passe ou une vérification CAPTCHA. Il demandera à l'utilisateur de prendre le relais lorsque cela se produira, explique OpenAI.
Un futur agentic
OpenAI a été plutôt lent à développer un agent d'IA par rapport à ses concurrents (voir : agents de Rabbit, Google et Anthropic), ce qui pourrait avoir quelque chose à voir avec les risques de sécurité entourant la technologie.
Lorsqu'un système d'IA peut agir sur le Web, cela ouvre la porte à des cas d'utilisation beaucoup plus dangereux de la part d'acteurs malveillants. Vous pourriez automatiser des agents d'IA pour orchestrer des escroqueries de phishing ou des attaques DDoS, ou les faire saisir des billets pour un concert avant tout le monde. Surtout pour un outil aussi largement utilisé que ChatGPT, il est important qu'OpenAI prenne des mesures pour prévenir ce genre d'exploitation.
OpenAI semble penser que Operator est assez sûr pour être publié sous sa forme actuelle, du moins en tant que prévisualisation de recherche.
"Operator utilise des outils qui cherchent à limiter la susceptibilité du modèle aux invites malveillantes, aux instructions cachées et aux tentatives de phishing", explique OpenAI sur son site Web. "Un système de surveillance met en pause l'exécution en cas d'activité suspecte, tandis que des pipelines automatisés et révisés par des humains mettent continuellement à jour les mesures de sécurité."
Operator est la tentative la plus audacieuse d'OpenAI jusqu'à présent pour créer un agent d'IA. La semaine dernière, OpenAI a lancé des Tâches, donnant à ChatGPT des fonctionnalités d'automatisation simples telles que la possibilité de définir des rappels et de planifier des invites pour s'exécuter à une heure fixe chaque jour.
Les Tâches ont donné aux utilisateurs de ChatGPT des fonctionnalités familières, mais nécessaires, pour rendre ChatGPT aussi pratique à utiliser que Siri ou Alexa. Cependant, Operator montre des capacités que la génération précédente d'assistants virtuels ne pourrait jamais faire.
Les agents d'IA ont été présentés comme le prochain grand enjeu en matière d'IA après ChatGPT : une nouvelle technologie qui changera la façon dont les gens utilisent Internet et leurs PC. Au lieu de simplement livrer et traiter des informations, les agents peuvent - en théorie - prendre des actions et réellement faire des choses.
Avec la sortie de la première interprétation concrète des agents par OpenAI, il deviendra bientôt clair à quel point cette vision est réaliste.