L’intelligence artificielle (ci-après « IA ») est au cœur des innovations médicales et technologiques, mais son développement rapide soulève des questions éthiques et juridiques majeures, que l’Union européenne souhaite accompagner notamment par la publication de ses nouvelles lignes directrices sur les pratiques interdites en matière d’IA, prises dans le cadre de l’entrée en application du Règlement (UE) 2024/1689 (ci-après le « Règlement IA »).
Publiées le 4 février 2025, ces lignes directrices, non contraignantes, apportent des précisions sur l’application des interdictions de l’article 5 du Règlement IA, qui classe certains usages de l’IA comme "à risque inacceptable" et donc strictement interdits.
Parmi les domaines les plus concernés : la santé, dans le cadre duquel tant l’usage qui en est fait que les données qui sont collectées à cette occasion sont considérés comme particulièrement sensibles.
Les lignes directrices s’attachent donc à détailler les différents types de pratiques interdites, en donnant des exemples concrets pour chacun d’entre eux et en excluant les pratiques qui seraient autorisées, les pratiques « out of scope ».
Pour rappel, les pratiques interdites identifiées par le Règlement IA sont les suivantes :
S’agissant par exemple de la pratique interdite de manipulation et tromperie par l’IA, ces lignes directrices identifient deux illustrations de ce qui est interdit ou au contraire autorisé :
🔴 Exemple relevant de la notion de pratique interdite
Un assistant médical basé sur l’IA qui incite à acheter des produits promettant des bienfaits irréalistes pour la santé mentale des patients et qui risquerait d’aggraver leur condition mentale et de les exploiter financièrement en les poussant à acheter des produits inefficaces et coûteux, ce qui pourrait leur causer des préjudices psychologiques et financiers significatifs.
✅ Exemple relevant de la notion de pratique autorisé
Un chatbot thérapeutique qui utilise des techniques subliminales pour orienter les utilisateurs vers un mode de vie plus sain et les aider à abandonner de mauvaises habitudes, comme le tabagisme. La Commission considère que, même si les utilisateurs qui suivent les conseils du chatbot et sa thérapie subliminale ressentent un certain inconfort physique et un stress psychologique dûs aux efforts nécessaires pour arrêter de fumer, ce chatbot ne peut pas être considéré comme susceptible de causer un préjudice significatif dès lors qu’il n’y a aucune tentative cachée d’influencer la prise de décision au-delà de la promotion d’habitudes saines.
Les lignes directrices identifient également des illustrations de pratiques interdites ou autorisées concernant l’interdiction de détection des émotions.
🔴 Exemple relevant de la notion de pratique interdite
L’utilisation de la reconnaissance des émotions pour évaluer le bien-être, le niveau de motivation ou la satisfaction au travail ou dans l’apprentissage des étudiants et employés ne constitue pas une « utilisation pour raisons médicales » et serait donc interdite.
✅ Exemple relevant de la notion de pratique autorisée
Au contraire la reconnaissance des émotions peut être déployée pour aider des employés ou des étudiants atteints d’autisme et améliorer l’accessibilité pour les personnes aveugles ou sourdes. De même, les robots d’assistance aux soins utilisant des systèmes de reconnaissance des émotions lors d’un examen médical, ou encore les moniteurs vocaux analysant les appels d’urgence, entrent dans le cadre d’une utilisation médicale de l’IA.
Ainsi, ces lignes directrices de la Commission visent à assurer une application uniforme et cohérente du Règlement IA et tentent de définir des limites claires pour éviter les abus de l’intelligence artificielle dans des domaines sensibles, et leur confrontation aux retours d’expériences des multiples acteurs de ce secteur sera particulièrement enrichissante.
A lire également sur le sujet de l’IA :