
“Cela dirigera le développement d'une intelligence artificielle (IA) sur laquelle les Européens peuvent compter et fournira un soutien aux PME et aux start-ups européennes pour qu'elles apportent sur le marché des solutions d'IA innovantes”, a déclaré sur le réseau social X la présidente de la Commission Européenne, Ursula von der Leyen.
La loi permet ou interdit l'utilisation de l'intelligence artificielle en fonction du risque qu'elle représente pour les individus et identifie les systèmes à haut risque qui ne pourront être utilisés que s'ils respectent les droits fondamentaux.
Concrètement, elle distingue entre les systèmes d'IA présentant un “risque inacceptable” en tant que menace pour les droits fondamentaux et qui seront interdits ; les systèmes à “haut risque”, qui ne seront pas interdits mais soumis à des exigences strictes ; IA avec des risques de transparence, comme les 'chatbots', et les systèmes à risque “minime”, qui constituent la majorité et ne seront pas soumis à des normes.
Conformément à cette classification, la loi interdit tous les systèmes de catégorisation biométrique basés sur les croyances politiques, religieuses, philosophiques ou sur la race et l'orientation sexuelle ; ceux qui évaluent les individus en fonction de leur comportement et caractéristiques personnelles, et l'IA capable de manipuler le comportement humain.
Les systèmes permettant d'étendre ou de créer des bases de données faciales en collectant des données de manière indiscriminée via Internet ou des enregistrements audiovisuels, et ceux qui peuvent reconnaître des émotions dans les lieux de travail et les écoles seront également interdits.

En général, la loi sur l'intelligence artificielle interdit la surveillance de masse dans les espaces publics, mais permet dans certains cas aux forces de l'ordre d'utiliser des caméras d'identification biométrique avec une autorisation judiciaire préalable, ce qui a constitué l'un des points les plus difficiles des négociations entre le Parlement européen et les États pour convenir de la loi.
Ainsi, ils pourront utiliser ces systèmes pour éviter une menace terroriste imminente, pour localiser ou identifier une personne ayant commis des crimes de terrorisme, de trafic d'êtres humains, d'exploitation sexuelle ou un crime environnemental, par exemple, ainsi que pour rechercher les victimes de ces crimes.
Le règlement identifie également des systèmes à haut risque qui ne pourront être commercialisés que si leurs développeurs garantissent qu'ils respectent les droits fondamentaux, par exemple, ceux qui pourraient influencer le résultat d'une élection ou ceux utilisés par les institutions financières pour évaluer la solvabilité et la note de crédit des clients.
D'autre part, il établit une série d'obligations pour les systèmes d'intelligence artificielle utilisés dans des programmes comme ChatGPT, de l'entreprise OpenAI, ou Bard, de Google.
Concrètement, ils devront spécifier si un texte, une chanson ou une photographie ont été générés par une intelligence artificielle et garantir que les données utilisées pour former les systèmes respectent les droits d'auteur.

Les entreprises qui enfreignent ces règles s'exposent à des amendes pouvant atteindre 7 % de leur chiffre d'affaires global annuel en cas d'infractions liées à des applications interdites, jusqu'à 3 % pour d'autres obligations, et jusqu'à 1,5 % de leur chiffre d'affaires pour avoir fourni des informations incorrectes.
Les États de l'UE ont jusqu'au 2 août 2025 pour désigner l'autorité qui sera chargée de mettre en œuvre la législation au niveau national, tandis qu'à l'échelle européenne, la tâche sera confiée à un nouveau Bureau de l'IA au sein de la Commission Européenne.
La plupart des dispositions de la loi entreront en vigueur à partir du 2 août 2026, à l'exception de l'interdiction des systèmes à risque inacceptable, qui sera effective dans six mois, et des normes pour l'IA d'usage général, qui le seront dans un an.
(*) EFE
Nouveau