La loi européenne sur l'Intelligence Artificielle du 9 décembre 2023 : une histoire française.


Acte 1 : 19 janvier 2018, le point presse de la nouvelle start-up Ethik-IA


Dans la foulée du rapport Villani, remis au Premier Ministre le 8 mars 2018 (https://fichiers.acteurspublics.com/redac/pdf/2018/2018-03-28_Rapport-Villani.pdf), la jeune start-up Ethik-IA, co-fondée par David Gruson et Judith Mehl en janvier 2018 dans le but de "proposer une série d'outils et de notes de cadrage pour garantir un regard humain sur les algorithmes en santé", fait son premier point presse le 19 janvier 2018 :





                                      L’initiative Ethik-IA : réguler positivement le déploiement de l’intelligence artificielle en santé

Arrivée en tête du volet « cadre éthique et de confiance » de la consultation publique organisée par Cédric VILLANI dans le cadre de sa mission sur l’intelligence artificielle, l’initiative Ethik-IA vise à fédérer les acteurs de la recherche et du management dans le domaine de la régulation éthique, juridique et RH du déploiement de la robotisation et de l’intelligence artificielle dans le domaine sanitaire et médico-social.

L’objectif opérationnel est de faire en sorte que la France, qui a été pionnière dans la construction des cadres juridiques et sociétaux en matière de protection des données ou de télémédecine, et l’Union européenne se positionnent également au premier rang mondial dans l’élaboration d’un dispositif d’acclimatation de l’intelligence artificielle en santé conforme aux exigences d’une société démocratique avancée.


Acte 2 : avis 129 du Comité Consultatif National d'Ethique (CCNE) du 8 septembre 2019


Cet avis contient 6 propositions (file:///C:/Users/pierr/Downloads/ad1084142%20(2).pdf) :


  • Le CCNE considère comme prioritaire la diffusion du numérique en santé, et souhaite qu’en l’état des recherches et du développement de ces technologies, le recours au droit opposable soit circonscrit au maximum. Compte tenu des marges de gains de qualité et d’efficience permises par un recours élargi au numérique dans notre système de santé, mettre en œuvre une logique bloquante de réglementation ne serait pas éthique. Il propose par ailleurs que soit engagée au cours des prochains mois une réflexion sur la création d’instruments de régulation de type « droit souple », applicables à la diffusion du numérique au sein de notre système de santé, avec un rôle de supervision générale qui pourrait être dévolu à la Haute Autorité de santé. Un tel cadre permettrait de renforcer l’efficacité et l’efficience de notre système de santé, tout en conservant la souplesse opérationnelle nécessaire à l’accompagnement de l’innovation.
  • Le CCNE propose que soit inscrit au niveau législatif le principe fondamental d’une garantie humaine du numérique en santé, c’est-à-dire la garantie d’une supervision humaine de toute utilisation du numérique en santé, et l’obligation d’instaurer pour toute personne le souhaitant et à tout moment, la possibilité d’un contact humain en mesure de lui transmettre l’ensemble des informations la concernant dans le cadre de son parcours de soins.
  • Le CCNE juge nécessaire que toute personne ayant recours à l’intelligence artificielle dans le cadre de son parcours de soins, en soit préalablement informée afin qu’elle puisse donner son consentement libre et éclairé.
  • Le CCNE souhaite que cette révolution numérique ne pénalise pas les citoyens du non-numérique qui sont souvent en situation de grande fragilité, particulièrement dans le domaine de la santé.
  • Le CCNE propose que soit créée une plateforme nationale sécurisée de collecte et de traitement des données de santé pour articuler, entre eux, les différents enjeux éthiques afférents aux données de santé.
  • Le CCNE va s’engager pleinement dans les réflexions éthiques relatives au domaine du numérique et de la santé, et d’autre part se propose d’aider à la pré configuration d’un comité d’éthique spécialisé dans les enjeux du numérique.


Acte 3 : la reconnaissance du principe de Garantie Humaine dans la révision de la loi Bioéthique du 2 août 2021


L'article 17 de la loi est retranscrit  dans le code de la santé publique (CSP) à l'article L.4001-3 :


Art. L. 4001-3.-I.-Le professionnel de santé qui décide d'utiliser, pour un acte de prévention, de diagnostic ou de soin, un dispositif médical comportant un traitement de données algorithmique dont l'apprentissage a été réalisé à partir de données massives s'assure que la personne concernée en a été informée et qu'elle est, le cas échéant, avertie de l'interprétation qui en résulte.
« II.-Les professionnels de santé concernés sont informés du recours à ce traitement de données. Les données du patient utilisées dans ce traitement et les résultats qui en sont issus leur sont accessibles.
« III.-Les concepteurs d'un traitement algorithmique mentionné au I s'assurent de l'explicabilité de son fonctionnement pour les utilisateurs.
« IV.-Un arrêté du ministre chargé de la santé établit, après avis de la Haute Autorité de santé et de la Commission nationale de l'informatique et des libertés, la nature des dispositifs médicaux mentionnés au I et leurs modalités d'utilisation. »


Acte 4 : l'AI-Act adoptée le 9 décembre 2023 par le Parlement Européen pour toutes les applications de l'IA


Nous reproduisons ici in extenso la publication du Commissaire européen (français), Thierry Breton, en charge du dossier de l'IA à la Commission Européenne. La loi AI-Act touche non seulement la santé, mais tous les domaines où l'IA peut se développer.


Historique

 

Avec l'accord politique sur la loi sur l'IA scellé ce soir, l'UE devient le premier continent à fixer des règles claires pour l'utilisation de l'IA.

Le dernier cycle de négociations – connu sous le nom de « trilogue » dans le jargon bruxellois – entre le Parlement européen, le Conseil de l'UE et la Commission européenne a duré pas moins de 38 heures !

Cette session d'ultramarathon démontre le dynamisme de notre démocratie et l'engagement des dirigeants de l'UE à trouver le juste équilibre dans l'intérêt général européen.

La loi sur l'IA est bien plus qu'un livre de règles : c'est une rampe de lancement pour les startups et les chercheurs de l'UE afin de mener la course mondiale à une IA digne de confiance.

Trouver un équilibre entre la sécurité des utilisateurs et l'innovation pour les startups, tout en respectant les droits fondamentaux et les valeurs européennes, n'a pas été une mince affaire. Mais nous y sommes parvenus.

Lorsque j'ai rejoint la Commission européenne en 2019, je me suis donné pour mission d'organiser notre « espace de l'information » et d'investir dans notre leadership technologique, y compris dans le domaine de l'IA.


« Trop compliqué, ça prendra trop de temps, c'est anti-innovation, laisser les développeurs s'autoréguler... » Un certain nombre d'entreprises, soutenues par des pays non-membres de l'UE, ont essayé de nous décourager. Ils savaient que le premier à établir des règles a l'avantage d'être le premier à établir la norme mondiale. Cela a rendu le processus législatif particulièrement complexe, mais pas impossible.

Au cours de ces quatre dernières années, nous nous sommes engagés dans de vastes consultations et un processus démocratique pour faire de la réglementation de l'IA une réalité, avec le Parlement européen et les 27 États membres.

Au cours de cette période, la technologie et ses applications ont évolué rapidement. Il en va de même pour notre approche. Par exemple, les grands modèles d'IA à usage général ont pris de l'importance, et les applications business-to-consumer, inexistantes en 2019, ont rapidement gagné une vaste base d'utilisateurs. Nos instances démocratiques ont adapté la proposition de loi à ces changements, en visant toujours à trouver un équilibre entre sécurité et innovation.

Cela a abouti au trilogue final et réussi d'aujourd'hui.

 

Les temps forts du trilogue


  • Grands modèles d'IA (par exemple, GPT4)

Avec l'accord d'aujourd'hui, nous sommes les premiers à établir un cadre contraignant, mais équilibré pour les grands modèles d'IA (« modèles d'IA à usage général »), favorisant l'innovation tout au long de la chaîne de valeur de l'IA.

Nous nous sommes mis d'accord sur une approche à deux niveaux, avec des exigences de transparence pour tous les modèles d'IA à usage général et des exigences plus strictes pour des modèles puissants ayant des impacts systémiques dans l'ensemble de notre marché unique de l'UE.

Pour ces modèles systémiques, nous avons développé un système efficace et agile pour évaluer et traiter leurs risques systémiques.

Au cours du trilogue, nous avons soigneusement calibré cette approche, afin d'éviter une charge excessive, tout en veillant à ce que les développeurs partagent des informations importantes avec les fournisseurs d'IA en aval (y compris de nombreuses PME). Et nous nous sommes alignés sur des définitions claires qui donnent une sécurité juridique aux développeurs de modèles.

 

  • Protection des droits fondamentaux

Nous avons passé beaucoup de temps à trouver le bon équilibre entre tirer le meilleur parti du potentiel de l'IA pour soutenir l'application de la loi tout en protégeant les droits fondamentaux de nos citoyens. Nous ne voulons pas d'une surveillance de masse en Europe.

Mon approche consiste toujours à réglementer le moins possible, autant que nécessaire. C'est pourquoi j'ai préconisé une approche proportionnelle fondée sur le risque.

C'est ce qui rend la loi européenne sur l'IA unique : elle nous permet d'interdire les utilisations de l'IA qui violent les droits fondamentaux et les valeurs de l'UE, d'établir des règles claires pour les cas d'utilisation à haut risque et de promouvoir l'innovation sans obstacles pour tous les cas d'utilisation à faible risque.

Au cours du trilogue, nous avons défini les spécificités de cette approche basée sur les risques. En particulier, nous nous sommes mis d'accord sur un ensemble  d'interdictions bien équilibrées et bien calibrées, telles que la reconnaissance faciale en temps réel, avec un petit nombre d'exemptions et de garanties bien définies.

Nous avons également défini divers cas d'utilisation à haut risque, tels que certaines utilisations de l'IA dans les domaines de l'application de la loi, du lieu de travail et de l'éducation, où nous voyons un risque particulier pour les droits fondamentaux. Et nous avons veillé à ce que les exigences relatives aux risques élevés soient efficaces, proportionnées et bien définies.


  • Innovation

Nous avons développé des outils pour promouvoir l'innovation. Au-delà des bacs à sable réglementaires précédemment convenus, nous nous sommes alignés sur la possibilité de tester les systèmes d'IA à haut risque dans des conditions réelles (en dehors du laboratoire, avec les garanties nécessaires).

Nous avons également convenu que  des normes techniques à l'épreuve du temps sont au cœur du règlement.

Cela inclut également certaines normes environnementales.


  • Application de la loi

Enfin, nous nous sommes mis d'accord sur un cadre d'application solide pour la loi sur l'IA (qui la distingue des nombreux cadres volontaires dans le monde).

Il s'agit d'une surveillance du marché au niveau national et d'un nouvel Office européen de l'IA, qui sera créé au sein de mes services au sein de la Commission européenne.

Et il prévoit  des sanctions sévères pour les entreprises qui ne se conforment pas aux nouvelles règles.

 

L'Europe s'est positionnée comme pionnièreconsciente de l'importance de son rôle de normalisateur mondial.


Aujourd'hui, nous nous lançons dans un nouveau voyage.

C'est pourquoi je qualifie la loi sur l'IA de « rampe de lancement ». Elle offre aux startups et aux chercheurs la possibilité de s'épanouir en assurant la sécurité juridique de leurs innovations.

La présente loi n'est pas une fin en soi ; C'est le début d'une nouvelle ère dans le développement responsable et innovant de l'IA, qui alimente la croissance et l'innovation pour l'Europe.

 

16 décembre 2023


Nous souhaitons à tous les lecteurs du blog de joyeuses fêtes de fin d'année 2023. Nous vous donnons rendez-vous en janvier 2024.