Blog Sciences du vivant

La stratégie européenne pour le développement de l’IA dévoilée par la Commission européenne

La Commission européenne a présenté le 19 février dernier son Livre blanc relatif à l’Intelligence Artificielle (« Une approche européenne axée sur l’excellence et la confiance »). La volonté de la Commission est double : d’une part permettre l’accélération et le déploiement de l’IA sur le territoire de l’Union européenne par la création d’incitations appropriées pour les entreprises et l’attraction de talents et de chercheurs et, d’autre part, régir les systèmes d’IA de façon proportionnée à leur niveau de risque, le tout permettant la création d’un « écosystème de confiance ».

Ce Livre blanc énumère plusieurs actions générales recommandées par la Commission afin de développer l’IA dans un contexte de compétitivité mais également de confiance, et particulièrement :

  • créer une structure de gouvernance européenne sur l’IA afin que l’Union européenne se dote progressivement des capacités nécessaires pour tester et certifier des produits et services reposant sur l’IA ;
  • faciliter (notamment par le soutien financier) la création de centres d’essai et d’excellence faisant appel à des investissements européens, nationaux et privés, y compris éventuellement la création d’un nouvel instrument juridique ;
  • initier des « dialogues sectoriels » en accordant la priorité aux prestataires de soins de santé et aux opérateurs de service public, afin d’élaborer un programme spécifique consacré à l’adoption de l’IA ;
  • adapter et/ou clarifier les dispositions législatives existantes dans le domaine de l’IA, notamment en ce qui concerne la responsabilité, afin de palier le manque de transparence et l’opacité de l’IA ;
  • établir une approche législative commune au niveau européen afin de permettre aux entreprises européennes de bénéficier d’un accès fluide au marché et favoriser leur compétitivité sur les marchés mondiaux.

Plus spécifiquement, sur l’élaboration d’un futur cadre règlementaire européen, la Commission indique que les exigences obligatoires qui seraient contenues dans ce nouveau cadre règlementaire sur l’IA ne s’appliqueront en principe qu’aux applications désignées comme étant à haut risque selon les deux critères cumulatifs suivants :
(i) l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir, la Commission cite les soins de santé comme exemple ;
(ii) l’application d’IA dans le secteur en question est utilisée de façon telle que des risques importants sont susceptibles d’apparaître (notamment en termes de conséquences pour les parties concernées), la Commission reprend alors l’exemple du secteur des soins de santé et précise qu’une défaillance du système de planification des rendez-vous dans un hôpital ne présentera pas, normalement, de risques tels qu’ils justifient une intervention législative.

La Commission rappelle, conformément aux lignes directrices élaborées par le groupe d’experts de haut niveau, que les exigences imposées aux applications d’IA à haut risque pourraient porter sur les points suivants :

  • les données d’entraînement,
  • la conservation des données et des dossiers,
  • les informations à fournir,
  • la robustesse et la précision,
  • le contrôle humain,
  • les exigences spécifiques pour les applications d’IA utilisées à des fins données telles que l’identification biométrique à distance.

Chaque exigence issue de ce nouveau cadre règlementaire devrait être applicable à l’acteur ou aux acteurs (i) qui sont le mieux placés pour éliminer le risque potentiel et (ii) qui fournissent des produits ou des services reposant sur l’IA dans l’Union européenne, qu’ils soient ou non établis sur ce territoire.

En outre, la Commission préconise la réalisation d’une évaluation de conformité objective et préalable pour vérifier et garantir le respect de certaines exigences obligatoires pour les applications à haut risque, étant entendu que cette évaluation devrait être intégrée dans les mécanismes d’évaluation de conformité existant déjà pour un grand nombre de produits. La Commission préconise par ailleurs, pour les applications d’IA qui ne sont pas considérées comme à haut risque, la mise en place d’un système de label de qualité non obligatoire.

Enfin, il est précisé que ce nouveau cadre législatif en cours d’élaboration ne s’appliquerait pas aux aspects déjà couverts par la législation sectorielle existante, telle la règlementation en matière de dispositifs médicaux.