
Sign up to save your podcasts
Or


L’Europe régule l’intelligence artificielle. Ce texte classifie des solutions IA et impose des obligations selon les niveaux. Le Règlement Européen sur l’Intelligence Artificielle ( RIA) établit des structures de gouvernance aux niveaux européen et national, avec des autorités compétentes chargées de la surveillance du marché et de l’application des règles. L’objectif principal est d’encadrer l’IA de manière éthique et responsable, tout en favorisant l’innovation et la compétitivité de l’UE. L’entrée en vigueur du RIA se fera de manière échelonnée à partir de février 2025.
Trois niveaux de risques sont définis.
Après cette introduction, on peut se demander pourquoi ce texte alors que les USA et la Chine qui sont bien plus en avancé n’ont pas de régulation et surtout mettent en œuvre des niveaux IA qui sont inacceptables en Europe.
L’Europe régule l’intelligence artificielle (IA) principalement pour encadrer son développement, sa mise sur le marché et son utilisation, afin de minimiser les risques qu’elle peut poser pour la santé, la sécurité et les droits fondamentaux. L’objectif est de promouvoir une IA digne de confiance tout en renforçant la compétitivité de l’UE dans ce domaine.
Il y a également un risque pour la sécurité en particulier dans les transports ou la santé si l’IA n’est pas contrôlée pour minimiser les risques d’accidents et de défaillances.
Coté manipulation de l’information, on sait déjà que l’IA est très utile. En période électorales des IA peuvent massivement manipuler les opinions en diffusant des information plausibles mais fausses.
Voici les principales implications de l’IA Act pour les entreprises européennes, d’après les sources :
Principalement en raison des contraintes que cela fait peser sur le développement de solutions d’intelligence artificielles. Les pays concurrents que sont les USA et la Chine et l’Inde ne sont pas soumis à ces règles sur leurs territoires.
Il faut avouer que l’IA fait peur aux consommateurs et que si ils ont le choix ils préfèrent souvent une relation humaine. L’obligation d’informer sur les Chatbot peut freiner leur développement alors que les entreprises veulent les utiliser.
Les entreprise doivent document leur IA génératives. Le risque est d’informer les concurrents sur les solutions en oeuvre. Mais aussi de devoir avouer que leur intelligence est en fait juste un programme IF THEN ELSE pas du tout basé sur des technologies d’IA.
L’interdiction de certaines solutions IA par le règlement va totalement stoppé les recherches ne Europe. Alors même que les systèmes de reconnaissance et de profilage ont des applications dans le domaine de la défense et la sécurité. Devrons nous les acheter en Chine avec tous les risques sur nos données ?
Beaucoup de salariés peuvent se faire assister dans leur travail par des IA. Cela leur apporte des bénéfices mais peut les mettre aussi en risque.
Comme le règlement l’indique certaines IA sont inacceptables. Sauf que des cas sont prévus. C’est ce type de texte qui introduit le loup dans la bergerie et va au final permettre des excès.
Le règlement sur l’IA (AI Act) interdit l’utilisation de certains systèmes d’IA considérés comme présentant un risque inacceptable, mais prévoit des exceptions dans des cas spécifiques.
Voici les principaux points concernant les exceptions aux interdictions des IA inacceptables :
Pourquoi faire un texte si contraignant pour prévoir des mécanismes de contournement si forts ? On terminera sur cette question pour vous laisser réagir.
Sources :
Loi européenne sur l’intelligence artificielle
CNIL, entrée en vigueur du règlement européen sur l’IA
Article sur la surveillance algorithmique
The post L’Europe régule l’intelligence artificielle first appeared on XY Magazine.
By Régis BAUDOUINL’Europe régule l’intelligence artificielle. Ce texte classifie des solutions IA et impose des obligations selon les niveaux. Le Règlement Européen sur l’Intelligence Artificielle ( RIA) établit des structures de gouvernance aux niveaux européen et national, avec des autorités compétentes chargées de la surveillance du marché et de l’application des règles. L’objectif principal est d’encadrer l’IA de manière éthique et responsable, tout en favorisant l’innovation et la compétitivité de l’UE. L’entrée en vigueur du RIA se fera de manière échelonnée à partir de février 2025.
Trois niveaux de risques sont définis.
Après cette introduction, on peut se demander pourquoi ce texte alors que les USA et la Chine qui sont bien plus en avancé n’ont pas de régulation et surtout mettent en œuvre des niveaux IA qui sont inacceptables en Europe.
L’Europe régule l’intelligence artificielle (IA) principalement pour encadrer son développement, sa mise sur le marché et son utilisation, afin de minimiser les risques qu’elle peut poser pour la santé, la sécurité et les droits fondamentaux. L’objectif est de promouvoir une IA digne de confiance tout en renforçant la compétitivité de l’UE dans ce domaine.
Il y a également un risque pour la sécurité en particulier dans les transports ou la santé si l’IA n’est pas contrôlée pour minimiser les risques d’accidents et de défaillances.
Coté manipulation de l’information, on sait déjà que l’IA est très utile. En période électorales des IA peuvent massivement manipuler les opinions en diffusant des information plausibles mais fausses.
Voici les principales implications de l’IA Act pour les entreprises européennes, d’après les sources :
Principalement en raison des contraintes que cela fait peser sur le développement de solutions d’intelligence artificielles. Les pays concurrents que sont les USA et la Chine et l’Inde ne sont pas soumis à ces règles sur leurs territoires.
Il faut avouer que l’IA fait peur aux consommateurs et que si ils ont le choix ils préfèrent souvent une relation humaine. L’obligation d’informer sur les Chatbot peut freiner leur développement alors que les entreprises veulent les utiliser.
Les entreprise doivent document leur IA génératives. Le risque est d’informer les concurrents sur les solutions en oeuvre. Mais aussi de devoir avouer que leur intelligence est en fait juste un programme IF THEN ELSE pas du tout basé sur des technologies d’IA.
L’interdiction de certaines solutions IA par le règlement va totalement stoppé les recherches ne Europe. Alors même que les systèmes de reconnaissance et de profilage ont des applications dans le domaine de la défense et la sécurité. Devrons nous les acheter en Chine avec tous les risques sur nos données ?
Beaucoup de salariés peuvent se faire assister dans leur travail par des IA. Cela leur apporte des bénéfices mais peut les mettre aussi en risque.
Comme le règlement l’indique certaines IA sont inacceptables. Sauf que des cas sont prévus. C’est ce type de texte qui introduit le loup dans la bergerie et va au final permettre des excès.
Le règlement sur l’IA (AI Act) interdit l’utilisation de certains systèmes d’IA considérés comme présentant un risque inacceptable, mais prévoit des exceptions dans des cas spécifiques.
Voici les principaux points concernant les exceptions aux interdictions des IA inacceptables :
Pourquoi faire un texte si contraignant pour prévoir des mécanismes de contournement si forts ? On terminera sur cette question pour vous laisser réagir.
Sources :
Loi européenne sur l’intelligence artificielle
CNIL, entrée en vigueur du règlement européen sur l’IA
Article sur la surveillance algorithmique
The post L’Europe régule l’intelligence artificielle first appeared on XY Magazine.