
Dans un article sur son blog personnel, le PDG d'OpenAI, Sam Altman, a déclaré qu'il croit qu'OpenAI « sait comment construire [l'intelligence artificielle générale] » telle qu'elle l'a traditionnellement comprise - et commence à se tourner vers la «superintelligence».
« Nous adorons nos produits actuels, mais nous sommes là pour le futur glorieux », a écrit Altman dans l'article, publié tard le dimanche soir. « Des outils superintelligents pourraient accélérer massivement la découverte scientifique et l'innovation bien au-delà de ce que nous sommes capables de faire seuls, et par la suite augmenter massivement l'abondance et la prospérité. »
L'AGI, ou l'intelligence artificielle générale, est un terme nébuleux. Mais OpenAI a sa propre définition : « des systèmes hautement autonomes qui surpassent les humains dans la plupart des travaux économiquement précieux. » OpenAI et Microsoft, proche collaborateur et investisseur de la start-up, ont également une définition de l'AGI : des systèmes d'IA capables de générer au moins 100 milliards de dollars de profits. (Lorsqu'OpenAI atteindra cet objectif, Microsoft perdra l'accès à sa technologie, selon un accord entre les deux entreprises.)
Alors, à quelle définition Altman fait-il référence ? Il ne le dit pas explicitement. Mais la première semble la plus probable. Dans l'article, Altman a écrit qu'il pense que les agents d'IA - des modèles d'IA capables d'effectuer certaines tâches de manière autonome - peuvent « rejoindre la main-d'œuvre » et « changer matériellement la production des entreprises ».
« Nous continuons de croire que mettre de grands outils entre les mains des gens de manière itérative entraîne de grands résultats largement distribués », a écrit Altman.
C'est possible. Mais il est également vrai que la technologie IA actuelle présente des limitations techniques significatives. Elle hallucine. Elle commet des erreurs évidentes pour tout être humain. Altman semble confiant que cela peut être surmonté - et assez rapidement - mais s'il y a quelque chose que nous avons appris sur l'IA au cours des dernières années, c'est que les échéances peuvent être imprévisibles.