La Commission européenne a présenté le 19 février dernier son Livre blanc relatif à l’Intelligence Artificielle (« Une approche européenne axée sur l’excellence et la confiance »). La volonté de la Commission est double : d’une part permettre l’accélération et le déploiement de l’IA sur le territoire de l’Union européenne par la création d’incitations appropriées pour les entreprises et l’attraction de talents et de chercheurs et, d’autre part, régir les systèmes d’IA de façon proportionnée à leur niveau de risque, le tout permettant la création d’un « écosystème de confiance ».
Ce Livre blanc énumère plusieurs actions générales recommandées par la Commission afin de développer l’IA dans un contexte de compétitivité mais également de confiance, et particulièrement :
Plus spécifiquement, sur l’élaboration d’un futur cadre règlementaire européen, la Commission indique que les exigences obligatoires qui seraient contenues dans ce nouveau cadre règlementaire sur l’IA ne s’appliqueront en principe qu’aux applications désignées comme étant à haut risque selon les deux critères cumulatifs suivants :
(i) l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir, la Commission cite les soins de santé comme exemple ;
(ii) l’application d’IA dans le secteur en question est utilisée de façon telle que des risques importants sont susceptibles d’apparaître (notamment en termes de conséquences pour les parties concernées), la Commission reprend alors l’exemple du secteur des soins de santé et précise qu’une défaillance du système de planification des rendez-vous dans un hôpital ne présentera pas, normalement, de risques tels qu’ils justifient une intervention législative.
La Commission rappelle, conformément aux lignes directrices élaborées par le groupe d’experts de haut niveau, que les exigences imposées aux applications d’IA à haut risque pourraient porter sur les points suivants :
Chaque exigence issue de ce nouveau cadre règlementaire devrait être applicable à l’acteur ou aux acteurs (i) qui sont le mieux placés pour éliminer le risque potentiel et (ii) qui fournissent des produits ou des services reposant sur l’IA dans l’Union européenne, qu’ils soient ou non établis sur ce territoire.
En outre, la Commission préconise la réalisation d’une évaluation de conformité objective et préalable pour vérifier et garantir le respect de certaines exigences obligatoires pour les applications à haut risque, étant entendu que cette évaluation devrait être intégrée dans les mécanismes d’évaluation de conformité existant déjà pour un grand nombre de produits. La Commission préconise par ailleurs, pour les applications d’IA qui ne sont pas considérées comme à haut risque, la mise en place d’un système de label de qualité non obligatoire.
Enfin, il est précisé que ce nouveau cadre législatif en cours d’élaboration ne s’appliquerait pas aux aspects déjà couverts par la législation sectorielle existante, telle la règlementation en matière de dispositifs médicaux.