
OpenAI a lancé une version plus puissante de son modèle d'IA de "raisonnement" o1, o1-pro, dans son API pour développeurs.
Selon OpenAI, o1-pro utilise plus de calcul que o1 pour fournir des réponses "considérablement meilleures". Pour le moment, il n'est disponible que pour certains développeurs - ceux qui ont dépensé au moins 5 $ en services API OpenAI - et cela a un coût. Très cher.
OpenAI facture 150 $ par million de jetons (~750 000 mots) introduits dans le modèle et 600 $ par million de jetons générés par le modèle. C'est le double du prix de OpenAI's GPT-4.5 pour l'entrée et 10 fois le prix du o1 régulier.
OpenAI parie sur le fait que les performances améliorées de o1-pro convaincront les développeurs de payer ces sommes astronomiques.
"O1-pro dans l'API est une version de o1 qui utilise plus de calcul pour réfléchir plus intensément et fournir des réponses encore meilleures aux problèmes les plus difficiles", a déclaré un porte-parole de OpenAI à TechCrunch. "Après avoir reçu de nombreuses demandes de notre communauté de développeurs, nous sommes ravis de le mettre à disposition dans l'API pour offrir des réponses encore plus fiables."
Pourtant, les premières impressions de o1-pro, qui est disponible dans la plateforme de chatbot alimentée par l'IA de OpenAI ChatGPT pour les abonnés ChatGPT Pro depuis décembre, n'étaient pas incroyablement positives. Les utilisateurs ont constaté que le modèle avait du mal avec les puzzles Sudoku et était piégé par de simples blagues d'illusion d'optique.
De plus, certains benchmarks internes de OpenAI de fin de l'année dernière ont montré que o1-pro ne performait que légèrement mieux que le o1 standard sur les problèmes de codage et de mathématiques. Cependant, il a répondu à ces problèmes de manière plus fiable, ont découvert les benchmarks.