Pour gérer vos consentements :

Un spécialiste en neuro-éthique et un avocat des libertés individuelles ont proposé d’intégrer dans les droits de l’homme certains éléments de l’esprit humain afin de les protéger des progrès rapides en matière d’intelligence artificielle.

A l’occasion d’un entretien retranscrit dans le Journal of Life Sciences, Society and Policy, Marcello Ienca, spécialiste en neuro-éthique à l’université de Bâle et Roberto Anderno, avocat en libertés individuelles à l’université de Zurich, considèrent que le « hacking du cerveau » impose de créer des droits de l’homme spécifiques. En effet, l’avancement rapide des neurosciences donne des capacités sans précédent pour accéder aux données du cerveau humain. Ils évoquent différentes techniques comme la neuro-imagerie, les neuro-stimulateurs et les interfaces cerveau-ordinateur avec des vocations diverses, médicales, marketing et même militaires.

Les deux chercheurs justifient la création de ces nouveaux droits par la vitesse et la croissance des technologies liées au cerveau. Elles posent des défis juridiques, éthiques et sociaux qui peuvent « forcer une reconceptualisation de certains droits de l’homme » et même en créer de nouveaux sous l’appelation « neurodroits ».

Ils en citent au moins 4 dans leurs recherches : le droit à la liberté cognitive, le droit à la confidentialité mentale, le droit à l’intégrité mentale et le droit à la continuité psychologique.

Des « neurodroits » pour se protèger de Facebook et Neuralink

La liberté cognitive fait référence au droit des individus de choisir ou non d’utiliser des neurotechnologies. La personne ne pourra pas être contrainte d’user de ces technologies. Le droit à la confidentialité mentale invoque l’élargissement du droit à la vie privée et la protection des données à l’activité cérébrale.

Le droit à l’intégrité mentale cible surtout les travaux sur les interfaces cerveau-machine. Facebook, à l’occasion de sa conférence F8, a annoncé plusieurs innovations autour de ce type d’interface. Les équipes de chercheurs travaillent sur des capteurs non invasifs permettant de décrypter les pensées. Des prototypes devraient être disponibles dans 2 ans. Dans la même veine, Neuralink soutenu par Elon Musk, a pour objectif d’implanter de l’intelligence artificielle directement dans le cerveau humain. Mais la crainte est de voir ces interfaces manipulées ou détournée à des fins malveillantes. Il est donc nécessaire de protéger l’intégrité mentale des personnes.

Enfin, le droit à la continuité psychologique porte sur la capacité pour un individu de conserver une identité personnelle sans modification par des tiers. Les spécialistes pensent notamment à certaines applications thérapeutiques à base de stimulations intracrâniennes. Dans ce cadre-là, le consentement sera obligatoire, ainsi que la protection des fonctions neuronales sous-jacentes.

A lire aussi :

L’intelligence artificielle peut-elle échapper au sexisme ?

Les leçons d’intelligence artificielle de Facebook

Recent Posts

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

15 heures ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

18 heures ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

20 heures ago

ChatGPT : le Financial Times signe avec OpenAI

FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…

3 jours ago

Les hyperscalers renforcent leurs recherches et datacenters pour l’IA

Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…

3 jours ago

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

4 jours ago