L’intelligence artificielle est sur toutes les lèvres, entre promesses technologiques et inquiétudes croissantes. Face aux risques liés à son développement rapide, l’Europe a décidé de serrer la vis. Adopté le 12 juillet 2024 et entré en vigueur le 1er août 2024, l’AI Act instaure un cadre réglementaire strict pour les systèmes d’IA en fonction de leur niveau de risque. Son objectif : bannir les IA jugées inacceptables et encadrer celles qui présentent un risque élevé. Mais sa mise en œuvre s’annonce déjà semée d’embûches.
Le règlement européen définit quatre niveaux de risque, chacun impliquant un encadrement spécifique :
-Risque minimal : Aucune régulation nécessaire, il concerne des outils comme les filtres anti-spam.
-Risque spécifique lié à la transparence : Concerne notamment les chatbots, qui doivent informer clairement les utilisateurs qu’ils interagissent avec une machine.
-Risque élevé : Cible les IA pouvant avoir un impact négatif sur la sécurité ou les droits fondamentaux. Elles nécessitent un contrôle renforcé.
-Risque inacceptable : IA interdites en Europe, comme celles dédiées à la notation sociale, la reconnaissance faciale à grande échelle ou la prédiction criminelle. Seules exceptions : leur usage par les forces de l’ordre et pour la détection d’émotions à des fins médicales ou de sécurité.
Pour se conformer à cette nouvelle législation, les entreprises du secteur ont jusqu’au 2 février 2025 pour s’adapter. Les sanctions sont lourdes : jusqu’à 35 millions d’euros d’amende ou 7 % du chiffre d’affaires annuel. En septembre 2024, 115 organisations, dont Google, Amazon et OpenAI, ont signé le pacte européen sur l’IA, s’engageant à cartographier les IA à risque. En revanche, Meta, Apple et Mistral se sont fait remarquer par leur absence, soulevant des questions sur leur position face à cette régulation. Parmi les technologies potentiellement menacées, DeepSeek, une IA chinoise spécialisée dans le traitement des données, est déjà dans le viseur des régulateurs européens.
Si le texte est en vigueur, son application concrète reste incertaine. La Commission européenne devait publier des directives précises début 2025, mais elles se font toujours attendre. Cette absence de clarté inquiète les entreprises du secteur. Rob Sumroy, avocat spécialisé en droit des technologies, souligne un point essentiel : « Les entreprises s’interrogent sur l’arrivée de directives claires, et surtout, sur leur capacité à vraiment encadrer la conformité ». De plus, bien que les sanctions soient prévues, elles n’entreront probablement pas en vigueur immédiatement. Autre question majeure : comment l’AI Act va-t-il coexister avec d’autres régulations déjà en place, comme le RGPD, la directive NIS2 sur la cybersécurité ou encore DORA, qui encadre les risques numériques dans la finance ? Ces textes comportent déjà des exigences de notification d’incidents, qui pourraient se chevaucher avec les nouvelles règles européennes sur l’IA.
L’entrée en vigueur de l’AI Act ne signifie pas une application immédiate. Son déploiement s’étalera jusqu’en août 2027, ce qui laisse du temps aux entreprises pour s’adapter… mais aussi aux zones d’ombre pour persister. En attendant, le débat reste ouvert : l’Europe parviendra-t-elle à encadrer l’IA sans freiner l’innovation ?
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.