Pour gérer vos consentements :

AI Safety Summit 2023 : Royaume-Uni, États-Unis, Chine et UE signent une déclaration sur le danger de l’IA

Vingt-huit gouvernements *,  incluant le Royaume-Uni, les États-Unis, l’UE, l’Australie et la Chine, ont signé la déclaration dite de Bletchley le premier jour du IA  Safety Summit, qui s’est tenu les 1er et 2 novembre, organisé par le gouvernement britannique dans le comté du  Buckinghamshire.

La Déclaration de Bletchley est la première déclaration internationale qui aborde les risques potentiels posés par l’intelligence artificielle considérant même un risque potentiellement catastrophique pour l’humanité.

La Déclaration de Bletchley

« L’intelligence artificielle (IA) présente d’énormes opportunités à l’échelle mondiale : elle a le potentiel de transformer et d’améliorer le bien-être humain, la paix et la prospérité », indique la déclaration. « Pour y parvenir, nous affirmons que, pour le bien de tous, l’IA doit être conçue, développée, déployée et utilisée de manière sûre, de manière à être centrée sur l’humain, digne de confiance et responsable. »

« Parallèlement à ces opportunités, l’IA présente également des risques importants, y compris dans les domaines de la vie quotidienne », peut-on lire. « Des risques substantiels peuvent découler d’une utilisation abusive intentionnelle potentielle ou de problèmes de contrôle involontaires liés à l’alignement avec l’intention humaine. »

« Ces problèmes sont en partie dus au fait que ces capacités ne sont pas entièrement comprises et sont donc difficiles à prédire », indique la déclaration. « Nous sommes particulièrement préoccupés par ces risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que par les domaines dans lesquels les systèmes d’IA frontaliers peuvent amplifier des risques tels que la désinformation. Il existe un potentiel de dommages graves, voire catastrophiques, délibérés ou non, découlant des capacités les plus importantes de ces modèles d’IA.»

« De nombreux risques découlant de l’IA sont intrinsèquement de nature internationale et il est donc préférable de les gérer par la coopération internationale », indique le texte. « Nous sommes déterminés à travailler ensemble de manière inclusive pour garantir une IA centrée sur l’humain, fiable et responsable, sûre et qui soutient le bien de tous par le biais des forums internationaux existants et d’autres initiatives pertinentes, afin de promouvoir la coopération pour faire face au large éventail de risques posés. par l’IA.»

Focus sur les dangers de l’IA

Les signataires ont convenu que la lutte contre les risques liés à l’IA se concentrera sur deux actions principales :

>  Identifier les risques de sécurité de l’IA d’intérêt commun, construire une compréhension scientifique et factuelle commune de ces risques et maintenir cette compréhension à mesure que les capacités continuent de croître, dans le contexte d’une approche mondiale plus large visant à comprendre l’impact de l’IA dans nos sociétés.

> Elaborer des politiques respectives basées sur les risques dans nos pays pour garantir la sécurité à la lumière de ces risques, en collaborant le cas échéant tout en reconnaissant que nos approches peuvent différer en fonction des circonstances nationales et des cadres juridiques applicables. Cela comprend, outre une transparence accrue de la part des acteurs privés développant des capacités d’IA de pointe, des mesures d’évaluation appropriées, des outils de test de sécurité et le développement de capacités pertinentes du secteur public et de la recherche scientifique.

La Corée du Sud a accepté d’accueillir un autre sommet de ce type dans six mois, tandis que la France en accueillera un dans un an.

Tom Jowitt, Silicon.co.uk

* Australie, Brésil, Canada, Chili, Chine, Union européenne, France, Allemagne, Inde, Indonésie, Irlande, Israël, Italie, Japon, Kenya, Royaume d’Arabie Saoudite, Pays-Bas, Nigeria, Philippines République de Corée, Rwanda, Singapour, Espagne, Suisse, Turquie, Ukraine, Emirats Arabes Unis, Royaume-Uni, Etats-Unis

Recent Posts

La démarche « green coding » d’AXA… au-delà du code

Engagé dans une démarche de communication sur son approche « green coding », AXA élargit…

3 heures ago

Loi SREN : le sort en est jeté pour les fournisseurs cloud

La loi SREN (sécuriser et réguler l'espace numérique) est promulguée. Sur le volet cloud, de…

22 heures ago

Le référentiel HDS s’imprègne de SecNumCloud

Mis à jour, le référentiel de certification HDS inclut une partie des exigences de souveraineté…

1 jour ago

SIEM : 6 fournisseurs dominent un marché qui se densifie

À un an et demi d'intervalle, les positions évoluent peu chez les « leaders »…

2 jours ago

Superalignment : quel est ce projet OpenAI abandonné par ses managers ?

Deux chercheurs de haut niveau, en charge du projet Superalignment, ont quitté OpenAI, quelques jours…

2 jours ago

Cybersécurité : Cyberark rachète Venafi

Le spécialiste israëlien de la gestion des identités Cyberark rachète Venafi, éditeur de solutions de…

2 jours ago