Pour gérer vos consentements :

IA : avec le règlement européen, quel sort pour l’open source ?

Dans le domaine de l’IA, la future régulation européenne sera-t-elle contreproductive pour les projets open source ? La Brookings Institution l’affirme.

Les dispositions que dénonce le think tank américain ne sont pas présentes dans la proposition de règlement que la Commission a publiée en avril 2021. Il s’agit de modifications qu’envisage le Conseil de l’UE.

Ce dernier avait émis une première proposition de compromis en novembre 2021, sous la présidence slovène. Elle était partielle, couvrant les articles 1 à 7 et les annexes I à III. Une version complète a finalement été publiée le 15 juin 2022, sous la présidence française. C’est là qu’est apparue la notion d’open source.

En toile de fond, un changement plus large : l’introduction d’une catégorie de systèmes IA « génériques » (general purpose). Lesquels seraient soumis aux exigences du règlement dès lors qu’ils seraient jugés « à haut risque » ou qu’ils entreraient dans la composition de tels systèmes.

Des mesures pour les IA « génériques »…

Sous la présidence slovène, le Conseil de l’UE avait notamment introduit un considérant 70a. Objectif : clarifier le rôle des personnes susceptibles de contribuer au développement de systèmes IA couverts par le règlement sans en être les « fournisseurs ».

Dans les grandes lignes, ce considérant posait que :

– L’IA « générique » ne devrait pas relever de la notion de « finalité prévue » entendue au sens du règlement
– La mise sur le marché ou la mise en service de tels systèmes ne devrait donc pas être soumise au règlement
– Elle devrait en revanche l’être dans le cas où une personne apposerait son nom ou sa marque sur un de ces systèmes, ou bien que la mise sur le marché se fait avec une « finalité prévue »
– Les tiers susceptibles de fournir des outils logiciels et des composants de type données ou modèles préentraînés coopéreront avec les fournisseurs et les utilisateurs pour assurer la conformité

Toutes ces mesures englobent explicitement les IA open source (voir ci-dessous, avec traduction approximative).

« La mise sur le marché, la mise en service ou l’usage d’un système IA générique, qu’il soit open source ou non… »

Parallèlement au considérant 70a, le Conseil de l’UE avait ajouté l’article 52a, consacré aux IA génériques. Y apparaît à nouveau – au paragraphe 4 – une mention de l’open source, encore plus explicite.

« Les dispositions de cet article devraient s’appliquer que le système IA générique soit ou non open source. »

… y compris open source ?

La version consolidée du 15 juin 2022 supprime le considérant comme l’article. Mais elle ne fait pas disparaître la notion d’open source. Elle glisse simplement dans une nouvelle définition, à l’article 3 : celle des… IA génériques.

« ‘Système IA générique’ signifie un système d’IA qui – peu importe comment il est mis sur le marché ou mis en service, y compris en open source… »

La « version française » introduit par ailleurs une section spécifique aux IA génériques (articles 4a, 4b et 4c). Section qui pose les mesures que devront respecter, d’une part, les IA elles-mêmes (premier paragraphe ci-dessous) et, de l’autre, leurs fournisseurs (deuxième paragraphe).

La dernière proposition en date, publiée le 15 juillet sous la présidence tchèque, maintient l’ensemble de ces éléments. Et quand bien même elle pose un principe d’exemption des systèmes portant exclusivement la recherche scientifique (considérant 12a), la Brookings Institution déplore un obstacle à l’essor de l’IA open source.

« Cette régulation ne devrait pas ébranler les activités de R&D et devrait respecter la liberté scientifique. Il est ainsi nécessaire d’exclure de son périmètre les systèmes d’IA spécifiquement développés et mis en service exclusivement à des fins de R&D scientifique… »

Le think tank craint, entre autres, que de telles mesures limitent le contrepoids face aux « gros » du secteur. Qui, de surcroît, sont aujourd’hui les pourvoyeurs des principales briques open source de référence en matière d’IA. Plus globalement, poursuit-il, on se priverait d’un modèle contribuant au développement d’IA « responsables » et à leur meilleure compréhension par le public.

Photo d’illustration © Parlement européen /  CC BY-NC-ND 2.0

Recent Posts

Étude Trends of IT 2024 : comprendre les mutations de l’environnement IT

Silicon et KPMG lancent Trends of IT 2024, une étude co-construite avec les managers IT…

13 heures ago

Guillaume Poupard, DGA de Docaposte : « Le plus de l’offre, c’est notre position comme acteur de confiance »

Avec son Pack cybersécurité lancé au Forum InCyber 2024, Docaposte tend une perche aux PME.…

14 heures ago

Quels impacts de l’IA générative sur le monde de la cybersécurité ? : regards croisés entre Onepoint, Wavestone et Fortinet

Quels sont les impacts immédiats de l'IA générative sur la cybersécurité ? Comment le contexte…

17 heures ago

Des serveurs IA cyberattaqués : le vecteur s’appelle Ray

Un éditeur attire l'attention sur des attaques exploitant l'absence d'autorisation dans une API du framework…

21 heures ago

Amazon débloque la deuxième tranche de son investissement dans Anthropic

Après un premier financement en septembre 2023, Amazon a débloquer le reste de l'enveloppe qu'il…

23 heures ago

Les logiciels libres entrés au SILL au premier trimestre 2024

D'Alpine Linux à XPipe, voic les dernières entrées au SILL (Socle interministériel de logiciels libres).

2 jours ago