Le 12 juillet 2024, le Règlement sur l’Intelligence Artificielle (« AI Act ») a été publié au Journal Officiel de l’Union européenne et entrera en vigueur le 1er aout 2024.
L’AI Act vise à établir un cadre juridique uniforme pour le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle et de modèles d’IA à usage général.
L’AI Act définit quatre niveaux de risques : les systèmes d’intelligence artificielle à risque minime, à risque faible, à haut risque et à risque inacceptable.
D’autre part, l’AI Act encadre également les modèles d’IA à usage général en distinguant selon que ces modèles sont considérés comme étant à risque systémique ou non.
Les principales obligations contraignantes pèsent sur les systèmes d’intelligence artificielle à haut risque qui sont qualifiés comme tels dès lors qu’ils sont appliqués à des produits à haut risque (p.ex. les dispositifs médicaux ou les jouets) ou dans des secteurs à haut risque (p.ex. infrastructures critiques, éducation, emploi).
Les organismes impliqués dans le développement, la mise sur le marché ou l’utilisation de systèmes d’intelligence artificielle (fournisseur, importateur, déployeur) bénéficient d’un certain délai pour mettre en conformité leurs pratiques à l’IA Act.
En effet, de manière générale, l’IA Act sera applicable à compter du 2 août 2026, à l’exception des dispositions suivantes :
Dans la mesure où les systèmes d’intelligence artificielle impliquent le traitement de données à caractère personnel, les organismes doivent également assurer la conformité de leurs systèmes au Règlement européen sur la protection des données du 27 avril 2016 (RGPD) et à la loi Informatique et Libertés modifiée.
A cet effet, la CNIL a publié des fiches pratiques permettant d’accompagner les organismes dans leur conformité et d’anticiper l’articulation des règles de l’AI Act avec celles du RGPD : https://www.cnil.fr/fr/les-fiches-pratiques-ia