OpenAI et Anthropic vont partager des modèles d'IA avec le gouvernement américain
OpenAI et Anthropic ont tous deux signé des accords avec le gouvernement américain pour la recherche, les tests et l’évaluation de leurs modèles d’intelligence artificielle.
L’Institut américain de sécurité de l’IA a annoncé « des accords qui permettent une collaboration formelle sur la recherche, les tests et l’évaluation de la sécurité de l’IA avec Anthropic et OpenAI ».
Essentiellement, l’accord permettra au gouvernement américain d’accéder à de nouveaux modèles d’IA majeurs avant leur sortie générale, afin de contribuer à améliorer leur sécurité. Il s’agit d’un objectif fondamental des instituts britannique et américain de sécurité de l’IA.
Lire aussi : L'AI Act californien essuie un veto
we are happy to have reached an agreement with the US AI Safety Institute for pre-release testing of our future models.
for many reasons, we think it’s important that this happens at the national level. US needs to continue to lead!
— Sam Altman (@sama) August 29, 2024
Sécurité des LLM
En avril 2024, le Royaume-Uni et les États-Unis ont signé un accord historique pour travailler ensemble sur les tests d’intelligence artificielle (IA) avancée.
Dans cet accord, les instituts britannique et américain de sécurité de l’IA s’engagent à travailler en toute transparence les uns avec les autres, en s’associant à la recherche, aux évaluations de sécurité et aux conseils sur la sécurité de l’IA.
Cet accord fait suite au sommet sur la sécurité de l’IA qui s’est tenu l’année dernière au Royaume-Uni, où de grandes entreprises comme Amazon, Google, la société mère de Facebook Meta Platforms, Microsoft et OpenAI ont toutes accepté de tester volontairement la sécurité des systèmes d’IA, ce qui a donné lieu à la « déclaration de Bletchley ».
Cet accord a été soutenu par l’UE et 10 pays, dont la Chine, l’Allemagne, la France, le Japon, le Royaume-Uni et les États-Unis.
Accord OpenAI et Anthropic
Selon l’Institut américain de sécurité de l’IA, le protocole d’accord de chaque entreprise établit désormais le cadre qui lui permettra « d’avoir accès aux principaux nouveaux modèles de chaque entreprise avant et après leur publication publique. Les accords permettront une recherche collaborative sur la manière d’évaluer les capacités et les risques de sécurité, ainsi que sur les méthodes permettant d’atténuer ces risques ».
« La sécurité est essentielle pour alimenter l’innovation technologique de rupture », a déclaré Elizabeth Kelly, directrice de l’Institut américain de sécurité de l’IA. « Avec ces accords en place, nous sommes impatients de commencer nos collaborations techniques avec Anthropic et OpenAI pour faire progresser la science de la sécurité de l’IA ».
« Ces accords ne sont qu’un début, mais ils constituent une étape importante dans notre travail visant à contribuer à la gestion responsable de l’avenir de l’IA », a déclaré Kelly.
En outre, l’ US AI Safety Institute prévoit de fournir des commentaires à Anthropic et OpenAI sur les améliorations potentielles de sécurité de leurs modèles, en étroite collaboration avec ses partenaires de l’AI Safety Institute britannique.
Tom Jowitt, Silicon UK
Sur le même thème
Voir tous les articles Data & IA