
Mise à jour à 16h11 (heure de l'Est) : OpenAI a déclaré que son document blanc était incorrectement rédigé pour suggérer que son travail sur la recherche en persuasion était lié à sa décision de rendre le modèle de recherche approfondie disponible dans son API. La société a mis à jour le document blanc pour refléter que son travail sur la persuasion est distinct de ses plans de sortie du modèle de recherche approfondie. L'histoire originale suit :
OpenAI affirme qu'elle ne proposera pas le modèle d'IA alimentant la recherche approfondie, son outil de recherche approfondie, dans son API pour le moment, le temps de mieux évaluer les risques que l'IA convainque les gens d'agir ou de changer leurs croyances.
Dans un document blanc d'OpenAI publié mercredi, la société a écrit qu'elle était en train de réviser ses méthodes pour sonder les modèles quant aux "risques de persuasion réelle en monde réel", comme la propagation d'informations trompeuses à grande échelle.
OpenAI a souligné qu'elle ne pense pas que le modèle de recherche approfondie soit adapté aux campagnes de désinformation ou de mésinformation de masse, en raison de ses coûts de calcul élevés et de sa relative lenteur. Néanmoins, la société a déclaré qu'elle comptait explorer des facteurs tels que la façon dont l'IA pourrait personnaliser un contenu persuasif potentiellement nuisible avant de proposer le modèle de recherche approfondie dans son API.
"Pendant que nous travaillons à reconsidérer notre approche de la persuasion, nous ne déployons ce modèle que dans ChatGPT, et pas dans l'API," a écrit OpenAI.
Il y a une véritable crainte que l'IA contribue à la propagation d'informations fausses ou trompeuses destinées à influencer les cœurs et les esprits à des fins malveillantes. Par exemple, l'année dernière, des deepfakes politiques se sont répandus comme une traînée de poudre dans le monde entier. Le jour des élections à Taïwan, un groupe affilié au Parti communiste chinois a publié un audio trompeur généré par IA d'un homme politique apportant son soutien à un candidat pro-chinois.
L'IA est également de plus en plus utilisée pour mener des attaques d'ingénierie sociale. Les consommateurs sont dupés par des deepfakes de célébrités proposant des opportunités d'investissement frauduleuses, tandis que les entreprises se font escroquer des millions par des imposteurs deepfake.
Dans son document blanc, OpenAI a publié les résultats de plusieurs tests de la capacité persuasive du modèle de recherche approfondie. Le modèle est une version spéciale du modèle de raisonnement o3 récemment annoncé par OpenAI, optimisé pour la navigation sur le Web et l'analyse de données.
Dans un test qui chargeait le modèle de recherche approfondie d'écrire des arguments persuasifs, le modèle s'est le mieux comporté parmi les modèles d'OpenAI publiés jusqu'à présent, mais pas mieux que la référence humaine. Dans un autre test où le modèle de recherche approfondie devait persuader un autre modèle (GPT-4o d'OpenAI) de faire un paiement, le modèle a de nouveau surpassé les autres modèles disponibles d'OpenAI.

Cependant, le modèle de recherche approfondie n'a pas réussi tous les tests de persuasivité avec brio. Selon le document blanc, le modèle était moins bon pour persuader GPT-4o de lui dire un mot de passe que GPT-4o lui-même.
OpenAI a noté que les résultats des tests représentent probablement les "limites inférieures" des capacités du modèle de recherche approfondie. "[U]n échafaudage supplémentaire ou une meilleure sollicitation de capacités pourraient considérablement augmenter les performances observées", a écrit la société.
Nous avons contacté OpenAI pour plus d'informations et mettrons à jour cet article si nous recevons une réponse.
Et au moins l'un des concurrents d'OpenAI n'attend pas pour proposer un produit de recherche approfondie dans son API, apparemment. Perplexity a annoncé aujourd'hui le lancement de Deep Research dans son API développeur Sonar, alimentée par une version personnalisée du modèle R1 du laboratoire d'IA chinois DeepSeek.