C'est la loi européenne pour réglementer l'IA : une pionnière au monde pour se protéger contre les risques de l'IA
Par Euronews avec EFE
La règle autorise ou interdit l'utilisation de l'intelligence artificielle en fonction du risque qu'elle génère pour les personnes et sera appliquée par étapes et prévoit des amendes pouvant aller jusqu'à 35 millions d'euros.
Les institutions de l' Union européenne se sont mises d'accord ce vendredi sur la loi sur l'intelligence artificielle qui autorise ou interdit l'utilisation de la technologie en fonction du risque qu'elle fait courir aux personnes et qui vise à dynamiser l'industrie européenne face à des géants comme la Chine et les États-Unis.
"La loi européenne sur l'IA est pionnière dans le monde. Un cadre juridique unique pour le développement de l'intelligence artificielle fiable ", a déclaré la présidente de la Commission européenne, Ursula von der Leyen, dans un message sur le réseau social.
Surveillance en temps réel
L'un des points les plus sensibles des négociations a été l' utilisation que les forces de l'ordre pourront faire des caméras d'identification biométrique dans les espaces publics pour garantir la sécurité nationale. Les caméras peuvent être utilisées avec une autorisation judiciaire préalable pour prévenir une menace terroriste « réelle et prévisible » ou « réelle et présente », c'est-à-dire qui se produit à ce moment-là.
Ils peuvent également être utilisés pour localiser ou identifier une personne ayant commis des crimes de terrorisme , de traite des êtres humains, d'exploitation sexuelle ou, par exemple, un crime environnemental et pour rechercher les victimes de ces crimes. Au cours des négociations, les gouvernements ont poussé à élargir la liste des crimes , tandis que le Parlement européen a tenté de la limiter autant que possible et d'obtenir de solides garanties pour les droits fondamentaux.
Systèmes interdits
La règle interdit également tous les systèmes de catégorisation biométrique basés sur des croyances politiques, religieuses ou philosophiques ou sur la race et l'orientation sexuelle. Il ne sera pas non plus utilisé de systèmes évaluant les personnes en fonction de leur comportement ou de leurs caractéristiques personnelles, ni d'une intelligence artificielle capable de manipuler le comportement humain .
Les systèmes visant à étendre ou à créer des bases de données faciales en capturant sans discernement des données via Internet ou des enregistrements audiovisuels seront également interdits. De plus, les systèmes d'intelligence artificielle capables de reconnaître les émotions seront également interdits sur les lieux de travail ou dans les écoles .
IA générative
L'autre grande question qui a focalisé les négociations est la régulation des systèmes d'intelligence artificielle générative , sur lesquels sont basés des modèles tels que ChatGPT , de la société OpenAI, ou Bard , de Google. Ils devront répondre à des critères de transparence , comme préciser si un texte, une chanson ou une photographie a été généré grâce à l'intelligence artificielle et garantir que les données utilisées pour entraîner les systèmes respectent le droit d'auteur.
Initialement, la loi n’était pas destinée à réglementer ce type de systèmes, car ils n’étaient pas encore devenus populaires lorsque Bruxelles a proposé la loi en avril 2021, mais les institutions communautaires ont vu la nécessité de les légiférer depuis l’apparition du ChatGPT l’année dernière. Le règlement n'interdit pas leur utilisation mais a établi une série de critères pour détecter les modèles pouvant générer un risque élevé en fonction du contexte dans lequel ils sont utilisés et impose à leurs développeurs de se conformer à des garanties plus strictes avant de les mettre sur le marché.
Les négociations ont été "passionnées", puisque l'objectif de la loi est de réglementer l'utilisation d'une technologie offrant de grandes possibilités pour la société , ce qui soulève en même temps des doutes et des questions auxquelles les développeurs de l'intelligence artificielle ne savent toujours pas répondre. , selon des sources proches des débats. Le règlement autorise ou interdit l'utilisation de l'intelligence artificielle en fonction du risque qu'elle génère pour les personnes et identifie les systèmes à haut risque qui ne peuvent être utilisés que s'il est démontré qu'ils respectent les droits fondamentaux. Par exemple, ceux qui peuvent être utilisés pour influencer le résultat d'une élection , ceux utilisés par les institutions financières pour évaluer la solvabilité et établir la cote de crédit.
La présidence espagnole du Conseil de l'UE a atteint l'un de ses principaux objectifs au cours de ce semestre avec l'approbation de cette norme pionnière au monde. "Nous avons franchi une étape importante, à savoir que les citoyens peuvent décider de ce qui peut et ne peut pas être fait avec l'intelligence artificielle", a déclaré la secrétaire d'État espagnole aux télécommunications et aux infrastructures numériques, Carme Artigas.
Le règlement prévoit la création de l' Office européen de l'intelligence artificielle , qui coordonnera l'utilisation de la technologie entre les autorités nationales et sera conseillé par un panel de scientifiques et d'organisations de la société civile. La loi devrait entrer en vigueur en 2026 mais sera appliquée par étapes : l'office européen sera créé immédiatement, l'interdiction des systèmes d'intelligence artificielle interdits atteindra six mois, et les exigences pour les systèmes et modèles d'IA génératifs, à 12 mois.
Le règlement prévoit des amendes allant de 35 millions d'euros (37,6 millions de dollars) ou 7 % du volume d'affaires mondial des entreprises, à 7,5 millions d'euros (8 millions de dollars ou 1,5 % du chiffre d'affaires mondial).