Pour gérer vos consentements :
Categories: ChatGPT

IA générative et service public : le Gouvernement expérimente sur socle américain

Le Gouvernement se fourvoie-t-il sur la notion d’open source ? L’une de ses dernières communications au sujet de l’IA générative interroge. Elle concerne le lancement d’une expérimentation au sein des services publics.

Un millier d’agents volontaires « vont être équipés d’un outil reposant sur l’intelligence artificielle pour les accompagner dans la rédaction des réponses en ligne aux avis et commentaires des usagers », nous annonce-t-on.

L’initiative englobe plus précisément les agents de Services Publics +. Ce programme d’« amélioration continue » permet aux usagers de témoigner de leur expérience avec les services publics et d’obtenir des réponses.

L’outil repose, selon le Gouvernement, sur « une technologie du marché spécialisée avec l’aide d’une société française ». Il s’agit en fait du LLM Claude. On le doit à Anthropic, entreprise américaine financée entre autres par Google (à hauteur de plusieurs centaines de millions de dollars) et Amazon (à hauteur de plusieurs milliards).

Claude, Llama-2… Un socle IA made in USA

La « spécialisation » de Claude s’est faite à l’appui de 43 000 questions-réponses issues de Service Public + et de 40 000 questions créées ad hoc à partir des contenus du site service-public.fr.
Quant à la « société française » en question, il s’agit d’AlloBrain (ex-AlloReview), positionnée sur l’analyse des interactions client.

« Les données sont totalement anonymisées, la confidentialité est ainsi complètement préservée pour l’usager », nous assure-t-on. On reconnaît toutefois, chez Etalab, la nécessité de proposer des modèles « sur des infrastructures mieux maîtrisées par l’État »… L’équipe qui porte le projet au sein de la Dinum doit par ailleurs accueillir « prochainement » des personnes dédiées aux enjeux de gouvernance des données.

Autre promesse : celle d’un « modèle souverain en open source qui sera spécialisé en interne ». Le chantier a démarré en juin, sous la marque Albert. Il se fonde sur Llama-2 13B. Un modèle qui n’est pas open source, en tout cas au sens de l’OSI…

Le projet a déjà consommé 2 M€. Objectif officiel : une mise en production dans le courant de 2024, toujours pour les agents volontaires. Une expérimentation doit débuter d’ici à fin 2023 auprès des maisons France services. Lesquelles conseillent les usagers dans leurs démarches administratives.

À consulter en complément :

Mistral AI lance son premier LLM : ouvert, mais jusqu’où ?
IA et LLM : Amazon investit 4 milliards $ dans Anthropic
L’OSI veut peser dans la définition de l’« IA open source »

Illustration principale générée par IA

Recent Posts

Processeurs : les États-Unis fabriqueront 30 % des puces avancées d’ici 2032

Les États-Unis vont tripler leur capacité nationale de fabrication de puces et contrôler 30 %…

4 heures ago

IBM ouvre ses LLM codeurs Granite : la recette et ses ingrédients

IBM publie, sous licence libre, quatre modèles de fondation Granite pour le code. Voici quelques…

6 heures ago

AWS va investir 7,8 milliards € dans son European Sovereign Cloud

C'est dans l'État de Brandebourg, en Allemagne, que sera lancée la première région AWS European…

8 heures ago

Veeam finalise le support de Proxmox, alternative à VMware

Veeam prévoit une prise en charge de Proxmox au troisième trimestre 2024. Il en fera…

9 heures ago

Quand Google Cloud amène le sujet GenAI par la data

À l'appui de témoignages d'Airbus, Valeo et Worldline, la plénière du Google Cloud Summit Paris…

1 jour ago

GPT-4o : OpenAI ajoute la conversation vocale

OpenAI lance son nouveau modèle GPT-4o avec une capacité de conversation vocale, une application de…

1 jour ago