Blog Données personnelles

La protection de la vie privée mentale dans le domaine des neurosciences : enjeux sociétaux, juridiques, éthiques

Dans le cadre du Panel pour l’avenir de la science et de la technologie, le Parlement européen a publié une étude menée par la Neurorights Foundation relative à la vie privée mentale dans le domaine des neurosciences.

Créée en 2017, la Neurorights Foundation (NRF) a pour objectif de protéger les droits humains contre l’utilisation abusive des neurotechnologies. A ce titre, l’étude présentée permet à la Fondation d’aborder la question des « neurodroits » et d’en saisir la portée juridique mais également sociétale et éthique.

La multiplication des usages des neurotechnologies

Technologies d’exploration ou de modulation du système nerveux, les neurotechnologies sont de plus en plus utilisées pour soigner certaines pathologies en particulier dans le contexte de troubles neurologiques (TOC, syndromes de Gilles de la Tourette, Parkinson, etc).

Les progrès du développement neurotechnologique ont conduit à une augmentation de l’utilisation et de l’accessibilité de ces technologies dès lors qu’elles permettent l’enregistrement, l’analyse et la manipulation de l’activité cérébrale par ces dispositifs, algorithmes et méthodologies.

L’intérêt grandissant du secteur privé, en particulier pour les interfaces cerveau-machine, pose la question de leurs applications en dehors de cas cliniques.

En effet si dans un premier temps, ces technologies étaient utilisées à des fins cliniques uniquement, elles deviennent de plus en plus attrayantes notamment pour des populations en bonne santé dans un objectif de connaissance et d’amélioration de leurs capacités cognitives ou physiques.

Les enjeux soulevés par les neurotechnologies

Les enjeux liés à l’intelligence artificielle et aux données personnelles

et les neurotechnologies. Tout en faisant progresser la science du cerveau, cette convergence soulève de nombreuses inquiétudes quant à la surveillance, manipulation et collecte des données.

En effet même si les neurotechnologies permettent d’améliorer les capacités humaines, elles pourraient également avoir un impact sur la perception, l’humeur, la mémoire et la prise de décision pouvant constituer à terme une menace pour l’autonomie de l’individu.

En matière de donnés à caractère personnel, la manipulation des « neurodata » soulève de nombreuses problématiques. L’unicité des ondes cérébrales recueillies questionne la réidentification et le profilage tandis que la proportionnalité des données collectées est remise en question par le principe même de ces technologies reposant sur la collecte de quantités massives de données en amont de toute analyse. Le Contrôleur européen de la protection des données (CEPD) soulève enfin la question de l’exactitude des données. Du fait de l’origine des données, la plasticité cérébrale implique des enjeux en termes de fiabilité des données.


Les recommandations de la Neurorights Foundation

La Fondation évoque trois scénarios différents quant à l’encadrement de ces neurotechnologies.

La Neurorights Foundation s’interroge tout d’abord sur l’emploi de la méthode du « laissez-faire ». Suivant l’hypothèse selon laquelle aucun cadre juridique spécifique se serait déployé, la Fondation met en garde sur les effets dérivés probables. Selon elle, le déploiement des appareils à des fins autres que cliniques, additionné à une littérature scientifique susceptible d’être entachée de biais (surinterprétation de résultats positifs, non représentativité des résultats négatifs) pourrait conduire à une évaluation critique des effets pouvant nuire à la santé mentale et/ou physique des citoyens européens.

Le deuxième scénario envisagé est celui de l’interdiction de certaines neurotechnologies. La Fondation reste critique vis-à-vis de cette solution puisqu’elle risque d’exclure les avancées scientifiques et économiques européennes au regard des marchés internationaux. De plus, les progrès liés aux neurotechnologies sont indispensables aux avancées destinées aux groupes d’utilisateurs cliniques. En revanche, la Fondation recommande aux Politiques de travailler sur une délimitation stricte des usages en différenciant les technologies accessibles uniquement aux cas cliniques des autres.

Le scénario le plus développé reste sans nul doute celui selon lequel une série de mesures spécifiques est déployée au niveau européen.

Tout d’abord, les neurotechnologies contenant des modules d’intelligence artificielle devraient, selon la Fondation, faire l’objet d’évaluations des risques telles que proposées dans le cadre du Règlement relatif à l’Intelligence Artificielle. Cette évaluation fondée sur le principe de précaution devra permettre d’identifier les besoins spécifiques des groupes vulnérables et de comprendre l’impact de l’écosystème des neurotechnologies sur les personnes.

La Fondation propose ensuite de renforcer l’information des personnes concernées. Ceci passe notamment par le développement de la littérature scientifique en tenant compte de l’ensemble des résultats pour ne pas se fier uniquement aux résultats significatifs positifs.

Une série de recommandations porte sur la consécration de « neurodroits » pouvant être définis par les droit liés à l’état cérébral et mental d’une personne. Il ressort de l’étude que de tels droits (par exemple droit à l’intimité mentale, droit à l’intégrité mentale, vie privée mentale) pourraient être explicitement consacrés dans des textes déjà existants à l’image du Règlement Général sur la Protection des Données en son article 9 relatif aux données sensibles ou du Règlement relatif à l’Intelligence Artificielle en son article 8 relatif aux systèmes à haut risque.

Enfin, l’étude porte une attention particulière au renforcement de la place des fournisseurs européens. Pour l’heure, les fournisseurs de neurotechnologies étant essentiellement basés aux Etats-Unis, les acteurs européens basés dans l’UE devraient être soutenus par des moyens spécifiques en mettant en place une base juridique solide pour un espace européen des neurodonnées.


Jeanne BOSSI MALAFOSSE, associée, et Camille BLOUET, stagiaire