Dans le cadre de son Règlement sur l’IA, l’Union européenne (UE) a mis en place une série de lignes directrices focalisées sur les usages interdits de la technologie. Cette nouvelle tentative de réguler le secteur a instantanément déclenché une levée de boucliers chez les poids lourds de l’industrie.
Le Règlement sur l’IA (AI Act), dévoilé pour la première fois en 2023, classe les technologies d’IA en fonction de quatre niveaux de dangerosité : risque minimal ou nul, risque pour la transparence, risque élevé et risque inacceptable. La législation vise à interdire les systèmes qui menacent la sécurité et les droits fondamentaux. Le dernier jeu de mesures présenté par la Commission européenne précise le cadre d’application de la réglementation.
Les nouvelles règles qui sont entrées en vigueur le 2 février interdisent les systèmes basés sur des pratiques comme « la manipulation et la tromperie, l’exploitation préjudiciable des vulnérabilités fondée sur l’IA, la notation sociale, l’évaluation ou prédiction du risque d’infraction pénale individuelle ».
Sont également visés « le raclage (sic) non ciblé de matériel internet ou de vidéosurveillance pour créer ou développer des bases de données de reconnaissance faciale, la reconnaissance des émotions sur les lieux de travail et dans les établissements d’enseignement, la catégorisation biométrique pour déduire certaines caractéristiques protégées et l’identification biométrique à distance en temps réel à des fins répressives dans des espaces accessibles au public ».
La législation met par ailleurs en place des exigences de transparence pour les sociétés qui développent des systèmes d’IA à risque élevé et qui assurent des fonctions de service public dans des secteurs comme la santé, l’emploi ou les migrations. Les développeurs de systèmes d’IA encore plus avancés font face à des obligations plus strictes encore, comme l’implémentation de « systèmes adéquats d’évaluation et d’atténuation des risques » et de « mesures appropriées de contrôle humain ».
Des organes de régulation nationaux superviseront l’entrée en vigueur de la législation et les entreprises qui ne la respecteront pas se verront infliger des amendes pouvant s’élever à 35 millions d’euros, voire plus en fonction du chiffre d’affaires mondial. Les sociétés coupables de pratiques interdites se verront en outre interdire d’opérer au sein de l’UE.
Certains secteurs sont cependant exclus du cadre législatif, notamment les activités liées à la sécurité nationale, les autorités de pays tiers ou les organisations internationales de lutte contre la criminalité, ainsi que la R&D avant la mise sur le marché.
Protestations
Plusieurs géants du secteur tech dont Meta Platforms ont élevé la voix contre la nouvelle réglementation sur l’IA, assurant qu’elle va brider l’innovation et l’investissement. Joel Kaplan, directeur des activités mondiales chez Meta, a ainsi annoncé que son groupe ne se conformerait pas aux règles de l’UE sur l’IA , jugées « inapplicables » et propres, selon lui, à imposer des contraintes injustifiées aux modèles d’IA en open-source.
En parallèle, le Président Donald Trump a prévenu l’UE que toute tentative de cibler des entreprises du secteur tech américain serait potentiellement suivie de représailles contre des entreprises basées en Europe. « Nous avons beaucoup à nous plaindre de l’UE », a-t-il affirmé le mois dernier.
En dépit des critiques, un représentant de l’UE a assuré au Financial Times que les organismes de régulation tiendraient bon. « Ce qu’on peut faire, c’est s’assurer que la législation est aussi favorable à l’innovation que possible – et c’est exactement ce que nous faisons aujourd’hui », a-t-il ajouté.
Comments