Sommaire
Le compromis sur le règlement sur l’intelligence artificielle approuvé par les commissions du Parlement européen
Les eurodéputés des commissions du marché intérieur (IMCO) et des libertés civiles (LIBE) ont largement voté le 13 février en faveur du compromis sur le règlement sur l’intelligence artificielle. Ce vote marque une étape importante dans le processus législatif et semble écarter tout risque de rejet ultérieur.
L’AI Act et l’arrivée de ChatGPT
L’AI Act a été présenté par la Commission européenne en avril 2021, mais c’est avec l’arrivée de ChatGPT que son destin a été bouleversé. Cette IA générative développée par OpenAI a incité les députés européens à revoir le texte pour prendre en compte ce type de technologie.
Cette décision a entraîné des négociations tumultueuses lors du trilogue, qui réunit les représentants du Parlement, du Conseil et de la Commission. Malgré l’opposition de la France, soutenue par l’Allemagne et l’Italie, les IA génératives ont été maintenues dans le texte final.
Un compromis obtenu grâce à la France
Le gouvernement français a résisté pour défendre ses entreprises et obtenir des concessions. Un compromis a finalement été signé en début de mois, offrant des allègements de charges administratives et une protection renforcée du secret des affaires.
La validation du règlement par les deux commissions parlementaires, avec 71 voix pour, 8 contre et 7 abstentions, est un indicateur prometteur pour le vote final en séance plénière en avril. De plus, la proximité des élections européennes joue en faveur d’une approbation du texte. Les États membres ont également validé le règlement début février, ce qui laisse présager une approbation du Conseil.
Une mise en application progressive
Une fois adopté, l’AI Act entrera en vigueur de manière progressive. Certaines dispositions seront appliquées à partir de 6, 9, 12 et 36 mois après sa validation.
Les objectifs de l’AI Act
L’AI Act vise à interdire certaines pratiques jugées dangereuses pour les droits des citoyens, telles que la police prédictive, la notation sociale ou la reconnaissance des émotions dans les milieux scolaires et professionnels. Des exceptions ont toutefois été prévues, notamment pour l’utilisation de systèmes biométriques par les forces de l’ordre dans certains contextes.
Les entreprises qui utilisent des modèles à haut risque ou des systèmes d’IA à usage général devront respecter des exigences de transparence, le droit d’auteur lors de la formation de l’algorithme, se soumettre à des évaluations et identifier les contenus générés par l’IA.
Source : CNEWS