Pour gérer vos consentements :
Categories: Régulations

IA et responsabilité : les États-Unis consultent

Quelle place pour la régulation dans les déploiements de l’intelligence artificielle (IA) ?

L’administration Biden s’interroge.

Mardi 11 avril, la NTIA (National Telecommunications and Information Administration), entité du Département du commerce des États-Unis, a ouvert une consultation publique sur les politiques associées à la responsabilité et l’IA (AI Accountability Policy).

L’agence fédérale dit vouloir obtenir « des commentaires sur les politiques susceptibles de favoriser le déploiement d’audits, d’évaluations, de certifications et d’autres mécanismes qui permettront d’instaurer la confiance dans les systèmes d’IA ».

Vers une IA responsable et régulée aux États-Unis ?

La demande de commentaires (request for comment ou RFC) porte notamment sur :

– le type d’accès aux données nécessaires aux audits et évaluations
– l’implication des régulateurs et d’autres acteurs pour encourager des systèmes d’IA fiables
– l’adaptation sectorielle (emploi, santé) des dispositifs à venir

Entreprises, particuliers, chercheurs, organisations et groupes d’influence sont invités à se prononcer par « écrit » sur ces sujets avant le 10 juin 2023. La requête s’inscrit dans le processus classique d’élaboration de politiques publiques américaines.

L’exercice fait suite aux interventions sur l’IA générative du président américain Joe Biden et de groupes d’influence, parmi lesquels le Center for AI & Digital Policy (CAIDP). Celui-ci sollicite du régulateur du commerce une enquête sur les pratiques commerciales d’OpenAI.

L’éditeur de ChatGPT qui a lancé mi-mars le modèle de traitement de langage GPT-4.

Dans sa récente plainte, le CAIDP indique :

« La Federal Trade Commission (FTC) a déclaré que l’utilisation de l’IA devrait être ‘transparente, explicable, équitable et empiriquement solide tout en favorisant la responsabilité’. [Or], le produit GPT-4 d’OpenAI ne satisfait à aucune de ces exigences. »

Selon le CAIDP, en outre, « il conviendrait d’instaurer un suivi et une évaluation indépendante des produits d’intelligence artificielle à vocation commerciale proposés aux États-Unis. »

En Europe, outre la responsabilité et l’éthique, la sécurité de l’IA fait également débat.

(crédit photo via Visual Hunt / CC BY-SA)

Recent Posts

Meta Horizon OS sera-t-il le Windows ou l’Android de la VR ?

Sous la marque Horizon OS, Meta va ouvrir le système d'exploitation des casques Quest à…

12 heures ago

Treize ans après, fin de parcours pour Women Who Code

Après avoir essaimé dans 145 pays, la communauté de femmes de la tech Women Who…

18 heures ago

Broadcom : la grogne des fournisseurs et des utilisateurs converge

Les voix du CISPE et des associations d'utilisateurs s'accordent face à Broadcom et à ses…

19 heures ago

Numérique responsable : les choix de Paris 2024

Bonnes pratiques, indicateurs, prestataires... Aperçu de quelques arbitrages que le comité d'organisation de Paris 2024…

2 jours ago

Programme de transfert au Campus Cyber : point d’étape après un an

Le 31 mars 2023, le PTCC (Programme de transfert au Campus Cyber) était officiellement lancé.…

2 jours ago

Worldline fait évoluer sa gouvernance des IA génératives

Nicolas Gour, DSI du groupe Worldline, explique comment l’opérateur de paiement fait évoluer sa gouvernance…

2 jours ago