Pour gérer vos consentements :

Un spécialiste en neuro-éthique et un avocat des libertés individuelles ont proposé d’intégrer dans les droits de l’homme certains éléments de l’esprit humain afin de les protéger des progrès rapides en matière d’intelligence artificielle.

A l’occasion d’un entretien retranscrit dans le Journal of Life Sciences, Society and Policy, Marcello Ienca, spécialiste en neuro-éthique à l’université de Bâle et Roberto Anderno, avocat en libertés individuelles à l’université de Zurich, considèrent que le « hacking du cerveau » impose de créer des droits de l’homme spécifiques. En effet, l’avancement rapide des neurosciences donne des capacités sans précédent pour accéder aux données du cerveau humain. Ils évoquent différentes techniques comme la neuro-imagerie, les neuro-stimulateurs et les interfaces cerveau-ordinateur avec des vocations diverses, médicales, marketing et même militaires.

Les deux chercheurs justifient la création de ces nouveaux droits par la vitesse et la croissance des technologies liées au cerveau. Elles posent des défis juridiques, éthiques et sociaux qui peuvent « forcer une reconceptualisation de certains droits de l’homme » et même en créer de nouveaux sous l’appelation « neurodroits ».

Ils en citent au moins 4 dans leurs recherches : le droit à la liberté cognitive, le droit à la confidentialité mentale, le droit à l’intégrité mentale et le droit à la continuité psychologique.

Des « neurodroits » pour se protèger de Facebook et Neuralink

La liberté cognitive fait référence au droit des individus de choisir ou non d’utiliser des neurotechnologies. La personne ne pourra pas être contrainte d’user de ces technologies. Le droit à la confidentialité mentale invoque l’élargissement du droit à la vie privée et la protection des données à l’activité cérébrale.

Le droit à l’intégrité mentale cible surtout les travaux sur les interfaces cerveau-machine. Facebook, à l’occasion de sa conférence F8, a annoncé plusieurs innovations autour de ce type d’interface. Les équipes de chercheurs travaillent sur des capteurs non invasifs permettant de décrypter les pensées. Des prototypes devraient être disponibles dans 2 ans. Dans la même veine, Neuralink soutenu par Elon Musk, a pour objectif d’implanter de l’intelligence artificielle directement dans le cerveau humain. Mais la crainte est de voir ces interfaces manipulées ou détournée à des fins malveillantes. Il est donc nécessaire de protéger l’intégrité mentale des personnes.

Enfin, le droit à la continuité psychologique porte sur la capacité pour un individu de conserver une identité personnelle sans modification par des tiers. Les spécialistes pensent notamment à certaines applications thérapeutiques à base de stimulations intracrâniennes. Dans ce cadre-là, le consentement sera obligatoire, ainsi que la protection des fonctions neuronales sous-jacentes.

A lire aussi :

L’intelligence artificielle peut-elle échapper au sexisme ?

Les leçons d’intelligence artificielle de Facebook

Recent Posts

Étude Trends of IT 2024 : comment les managers IT développent leurs projets

Silicon et KPMG lancent la deuxième édition de l'étude Trends of IT. Cette édition 2024…

34 minutes ago

Atos : l’Etat veut acquérir les activités souveraines

Le ministère de l'économie a adressé une lettre d'intention à la direction d'Atos pour racheter…

2 heures ago

Arnaud Monier – SNCF Connect & Tech : « Notre moteur, c’est l’innovation et nous procédons par incrémentation »

Directeur Technologie de SNCF Connect & Tech, Arnaud Monier lance une campagne de recrutement pour…

4 heures ago

Etats-Unis : les grands de l’IT licencient au nom de l’IA

Les grands de l'IT suppriment des milliers de jobs au nom du déploiement de. Une…

5 heures ago

Appel de Rome : Cisco rejoint Microsoft et IBM pour une IA éthique

Quatre ans après l’appel de Rome - un pacte présenté en 2020 par le Vatican…

5 heures ago

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

3 jours ago