Le Royaume-Uni supprime la notion de « sécurité » de son organisme dédié à l'IA, désormais appelé Institut de Sécurité de l'IA, signe un protocole d'accord avec Anthropic

Le gouvernement britannique souhaite opérer un virage dans le renforcement de son économie et de son industrie avec l'IA, et dans ce cadre, il transforme une institution qu'il a créée il y a un peu plus d'un an dans un but très différent. Aujourd'hui, le ministère des Sciences, de l'Industrie et de la Technologie a annoncé qu'il renommerait l'Institut de Sécurité de l'IA en « Institut de Sécurité de l'IA ». (Les mêmes premières lettres : même URL.) Avec cela, l'organisme passera d'une exploration principalement axée sur des domaines tels que les risques existentiels et les biais dans les grands modèles de langage, à une focalisation sur la cybersécurité, notamment le « renforcement des protections contre les risques que l'IA pose à la sécurité nationale et à la criminalité ».

Parallèlement à cela, le gouvernement a également annoncé un nouveau partenariat avec Anthropic. Aucun service spécifique n'a été annoncé, mais le protocole d'accord indique que les deux parties vont « explorer » l'utilisation de l'assistant IA de Anthropic, Claude, dans les services publics; et Anthropic s'engage à contribuer aux travaux de recherche scientifique et de modélisation économique. Et à l'Institut de Sécurité de l'IA, il fournira des outils pour évaluer les capacités de l'IA dans le contexte de l'identification des risques de sécurité.

« L'IA a le potentiel de transformer la manière dont les gouvernements servent leurs citoyens », a déclaré le cofondateur et PDG d'Anthropic, Dario Amodei, dans un communiqué. « Nous sommes impatients d'explorer la façon dont l'assistant IA de Anthropic, Claude, pourrait aider les agences gouvernementales britanniques à améliorer les services publics, dans le but de découvrir de nouvelles façons de rendre les informations et les services vitaux plus efficaces et accessibles aux résidents du Royaume-Uni. »

Anthropic est la seule entreprise annoncée aujourd'hui, en parallèle avec une semaine d'activités liées à l'IA à Munich et à Paris, mais ce n'est pas la seule à collaborer avec le gouvernement. Une série de nouveaux outils dévoilés en janvier étaient tous propulsés par OpenAI. (À ce moment-là, Peter Kyle, le secrétaire d'État à la Technologie, a déclaré que le gouvernement prévoyait de collaborer avec diverses entreprises fondamentales en IA, et c'est ce que démontre l'accord avec Anthropic.)

Le changement de nom de l’Institut de Sécurité de l'IA - lancé il y a un peu plus d'un an avec beaucoup de fanfare - pour l'Institut de Sécurité de l'IA ne devrait pas trop surprendre. 

Lorsque le nouveau gouvernement travailliste a annoncé son Plan pour le Changement axé sur l'IA en janvier, il était notable que les mots « sécurité », « dommage », « existentiel » et « menace » n'apparaissaient pas du tout dans le document.

Il ne s'agissait pas d'un oubli. Le plan du gouvernement est de stimuler l'investissement dans une économie plus modernisée, en utilisant la technologie et spécifiquement l'IA pour ce faire. Il souhaite travailler plus étroitement avec les géants de la technologie, et il souhaite également créer ses propres géants technologiques nationaux.

Dans cette optique, les principaux messages promus ont été le développement, l'IA et encore le développement. Les fonctionnaires auront leur propre assistant IA appelé « Humphrey », et on les encourage à partager des données et à utiliser l'IA dans d'autres domaines pour accélérer leur travail. Les consommateurs recevront des portefeuilles numériques pour leurs documents gouvernementaux, ainsi que des chatbots.

Les problèmes de sécurité de l'IA ont-ils été résolus ? Pas exactement, mais le message semble être qu'ils ne peuvent pas être considérés au détriment du progrès.

Le gouvernement a affirmé qu'en dépit du changement de nom, la chanson restera la même.

« Les changements que j'annonce aujourd'hui représentent l'étape logique suivante de notre approche du développement responsable de l'IA - nous aidant à libérer l'IA et à faire croître l'économie dans le cadre de notre Plan pour le Changement », a déclaré Kyle dans un communiqué. « Le travail de l'Institut de Sécurité de l'IA ne changera pas, mais cette focalisation renouvelée assurera que nos citoyens - et ceux de nos alliés - sont protégés contre ceux qui voudraient utiliser l'IA contre nos institutions, nos valeurs démocratiques et notre mode de vie. »

« La mission de l'Institut a toujours été axée sur la sécurité et nous avons constitué une équipe de scientifiques concentrés sur l'évaluation des risques graves pour le public », a ajouté Ian Hogarth, qui reste le président de l'Institut. « Notre nouvelle équipe de lutte contre les abus criminels et le renforcement du partenariat avec la communauté de la sécurité nationale marquent la prochaine étape dans la lutte contre ces risques. »

À l'échelle internationale, les priorités semblent certainement avoir évolué quant à l'importance de la « Sécurité de l'IA ». Le plus grand risque que l'Institut de Sécurité de l'IA aux États-Unis envisage actuellement, c'est qu'il va être démantelé. Le vice-président américain J.D. Vance l'a laissé entendre plus tôt cette semaine lors de son discours à Paris.

TechCrunch a une newsletter axée sur l'IA ! Inscrivez-vous ici pour la recevoir dans votre boîte de réception chaque mercredi.