Définition des systèmes d’IA

De nouvelles lignes directrices pour faciliter l’application des premières règles de l’AI Act

Date de publication
11/02/2025

La Commission publie des lignes directrices sur la définition des systèmes d’IA pour faciliter l’application des premières règles de l’AI Act

6 février – Les lignes directrices relatives à la définition des systèmes d’intelligence artificielle (IA) visent à clarifier l’application pratique de ce concept juridique, tel qu’établi dans l’AI Act.


En publiant ces lignes directrices, la Commission européenne entend accompagner les fournisseurs et autres

acteurs concernés dans l’identification des systèmes logiciels relevant de la catégorie des systèmes d’IA, afin de garantir une mise en œuvre efficace des nouvelles règles.

Ces lignes directrices n’ont pas de caractère contraignant. Elles sont conçues pour évoluer et seront mises à jour au besoin, en fonction des retours d’expérience, des nouvelles problématiques et des cas d’usage émergents.

La publication de ces recommandations s’ajoute aux lignes directrices sur les pratiques interdites en matière d’IA, telles que définies par l’AI Act.

L’AI Act, qui vise à encourager l’innovation tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux, établit une classification des systèmes d’IA selon leur niveau de risque : interdits, à haut risque et soumis à des obligations de transparence.

Depuis le dimanche 2 février, les premières règles de l’AI Act sont entrées en vigueur, notamment celles relatives à la définition des systèmes d’IA, à la sensibilisation à l’IA et à un nombre restreint de cas d’usage interdits présentant des risques jugés inacceptables dans l’Union européenne.

À noter que la Commission a validé le projet de lignes directrices, mais ne les a pas encore adoptées officiellement.

Les lignes directrices sur la définition des systèmes d’IA sont accessibles depuis le site de la Comission.

Accéder au document

Lignes directrices sur les pratiques interdites en matière d’IA

4 février – Ces lignes directrices présentent une synthèse des pratiques en matière d’IA jugées inacceptables en raison des risques qu’elles posent aux valeurs et aux droits fondamentaux européens.

L’AI Act classe les systèmes d’IA en plusieurs catégories de risque, notamment les pratiques interdites, les systèmes à haut risque et ceux soumis à des obligations de transparence.

Les lignes directrices abordent en particulier des pratiques telles que la manipulation nuisible, le scoring social et l’identification biométrique à distance en temps réel.

Ces recommandations visent à assurer une application cohérente, efficace et uniforme de l’AI Act à l’échelle de l’Union européenne.

Bien qu’elles apportent des éclairages précieux sur l’interprétation des interdictions par la Commission, elles ne sont pas contraignantes, l’interprétation juridiquement contraignante relevant de la Cour de justice de l’Union européenne (CJUE).

Elles fournissent des analyses juridiques ainsi que des exemples concrets pour aider les parties prenantes à comprendre et respecter les exigences de l’AI Act. Cette initiative témoigne de l’engagement de l’UE à promouvoir un cadre éthique et sécurisé pour l’intelligence artificielle.

À noter que la Commission a validé le projet de lignes directrices, mais ne les a pas encore adoptées officiellement.

Les lignes directrices sur les pratiques interdites en matière d’IA sont accessibles depuis le site de la Comission.

Accéder au document