Synthèse de la rencontre citoyenne sur les neurotechnologies 

États généraux de la bioéthique – Toulouse, 6 mai 2026  

Organisée par l’Espace de Réflexion Éthique Occitanie

Le 6 mai 2026, l’Espace de Réflexion Éthique Occitanie organisait à Toulouse une soirée-débat consacrée aux interfaces cerveau-machine et aux neurotechnologies numériques, dans le cadre des États généraux de la bioéthique. Cette rencontre, articulée autour de l’Avis 150 du Comité consultatif national d’éthique et de l’Avis 10 du Comité consultatif national d’éthique du numérique, a permis de croiser les regards de chercheurs, médecins, juristes et citoyens sur les promesses, les risques et les enjeux démocratiques liés à ces technologies émergentes.

Des neurotechnologies déjà présentes dans le soin  

Les échanges ont rappelé que les neurotechnologies ne relèvent plus de la science-fiction. Certaines applications médicales sont déjà éprouvées :

  • implants cochléaires ;
  • stimulation cérébrale profonde pour la maladie de Parkinson, les dystonies ou certains tremblements essentiels ;
  • recherches sur les troubles obsessionnels compulsifs sévères ;
  • neuroprothèses permettant à des personnes paralysées de produire une parole écrite ou une voix de synthèse.

Les intervenants ont distingué les technologies invasives (implants, stimulation profonde) et non invasives (IRM fonctionnelle, stimulation magnétique transcrânienne, EEG, stimulation électrique ou sonique).

Ces outils ouvrent des perspectives majeures pour les personnes vivant avec un handicap neurologique ou des troubles sévères. Mais ils soulèvent également des interrogations inédites dès lors qu’ils touchent à l’activité cérébrale, à la pensée, à la volonté ou aux émotions.

Une frontière de plus en plus floue entre soin, augmentation et usages commerciaux  

Plusieurs interventions ont alerté sur le développement de neurotechnologies “grand public” reposant sur la collecte de données neurales via des signaux EEG simplifiés.

Les usages envisagés dépassent largement le champ médical :

  • optimisation des performances sportives ;
  • amélioration cognitive ;
  • éducation ;
  • sélection ou évaluation professionnelle ;
  • ciblage algorithmique et marketing comportemental.

Les participants ont insisté sur le risque d’une vision idéologique du cerveau assimilé à un ordinateur programmable. Cette métaphore simplificatrice peut conduire à banaliser des technologies susceptibles d’influencer les comportements humains :

  • par pression sociale ;
  • par recommandations algorithmiques ;
  • voire par action directe sur l’activité cérébrale.

La question du “neuro-enhancement” — l’augmentation des capacités humaines — a été particulièrement débattue, notamment chez les enfants, les adolescents ou les professionnels soumis à des exigences de performance.

Les données neurales : des données ultra-sensibles  

Un consensus fort s’est dégagé autour de la nécessité de considérer les données neurales comme des données personnelles particulièrement sensibles.

Les intervenants ont souligné plusieurs enjeux majeurs :

  • risque d’identification des personnes ;
  • traçage des comportements ;
  • inférence de pensées ou d’états émotionnels ;
  • réutilisation future des données par l’intelligence artificielle ;
  • risques de cyberattaque ou de détournement commercial.

Le débat a également porté sur le partage des données dans le cadre de l’open science. Certains chercheurs ont rappelé que même pseudonymisées, ces données pourraient devenir ré-identifiables à l’avenir.

Le sujet du consentement a occupé une place centrale. Plusieurs intervenants ont estimé que le simple mécanisme de “non-refus” prévu dans l’Espace européen des données de santé était insuffisant pour les données neurales. Le Comité consultatif national d’éthique recommande un consentement explicite, éclairé et renouvelable.

Des risques encore mal connus  

Les chercheurs présents ont rappelé que les protocoles scientifiques encadrés permettent aujourd’hui de limiter les risques immédiats. Toutefois, plusieurs zones d’incertitude demeurent :

  • effets à long terme des stimulations répétées ;
  • conséquences sur la plasticité cérébrale ;
  • effets indirects sur les émotions, la cognition ou la personnalité ;
  • usages non contrôlés des dispositifs grand public.

Les échanges ont mis en évidence un décalage croissant entre :

  • la prudence du monde scientifique ;
  • et la rapidité du marché technologique et des usages commerciaux.

Le cerveau, siège de la personne humaine  

Au-delà des aspects techniques, la soirée a profondément interrogé ce qui fonde l’identité humaine.

Plusieurs intervenants ont rappelé que le cerveau ne peut être réduit à une machine de traitement de l’information. Il est au cœur :

  • de la pensée ;
  • de la conscience ;
  • des émotions ;
  • de la relation à autrui ;
  • de la construction du “je”.

Les discussions ont abordé des notions philosophiques et juridiques majeures :

  • dignité humaine ;
  • continuité de l’identité ;
  • intégrité psychique ;
  • liberté de consentement ;
  • manipulation de la volonté.

Un participant a résumé cette préoccupation par une formule marquante :
“L’humain, c’est la relation.”

Vers des “neurodroits” ?  

La table ronde a enfin ouvert le débat sur l’émergence possible de nouveaux droits fondamentaux liés aux neurotechnologies :

  • droit à l’intégrité mentale ;
  • droit à la protection des données neurales ;
  • droit à ne pas être manipulé cognitivement ;
  • protection contre les discriminations fondées sur des données cérébrales.

Certains intervenants ont évoqué le risque de “camisole neuronale” si ces technologies étaient utilisées à des fins de contrôle social, économique ou judiciaire.

 

Les principaux points de vigilance pour les usagers du système de santé  

Pour les représentants des usagers, plusieurs enjeux apparaissent prioritaires :

  1. Garantir un consentement réellement libre et éclairé  

Le consentement doit être :

  • explicite ;
  • compréhensible ;
  • réversible ;
  • adapté aux capacités des personnes concernées.

Une vigilance particulière est nécessaire pour les personnes vulnérables, les patients inconscients, les enfants et les personnes sous pression sociale ou professionnelle.

  1. Refuser la marchandisation des données neurales  

Les données cérébrales ne peuvent devenir une ressource commerciale exploitée à des fins publicitaires, assurantielles ou managériales.

  1. Prévenir les discriminations  

Les usages des neurotechnologies dans l’emploi, le sport, l’éducation ou les assurances doivent être strictement encadrés.

L’utilisation de données neurales pour :

  • le recrutement ;
  • l’évaluation ;
  • la promotion ;
  • le licenciement ;
    doit être considérée comme discriminatoire.
  1. Renforcer l’information du public  

Le débat démocratique doit être largement ouvert afin d’éviter :

  • la fascination technologique ;
  • les promesses trompeuses ;
  • ou au contraire les peurs irrationnelles.
  1. Protéger les enfants et les adolescents  

Le développement cérébral se poursuivant jusqu’à environ 30 ans, les usages non médicaux des neurotechnologies chez les mineurs devraient être interdits.

 

Conclusion  

Cette rencontre citoyenne a montré que les neurotechnologies constituent à la fois une avancée médicale majeure et un défi démocratique inédit. Les interfaces cerveau-machine interrogent directement notre conception de la liberté, de l’identité, du consentement et de la dignité humaine.

Pour les associations d’usagers, l’enjeu sera de veiller à ce que ces innovations demeurent au service des personnes et de leurs droits fondamentaux, dans un cadre éthique, transparent et démocratique.

 

Oups ! Nous n’avons pas retrouvé votre formulaire.