Texte Centré

L’Intelligence Artificielle nécessite des principes éthiques pour améliorer les soins de santé

Par Françoise Liners, responsable de la cellule des Technologies de la Santé au sein du ministère de l’Économie du Luxembourg, et Sylvain Vitali, Secrétaire Général à la Fédération des Hôpitaux Luxembourgeois (FHL)

L’intégration de l’Intelligence Artificielle dans le secteur médical redéfinit notre vision de la médecine et notre manière de la pratiquer. Cela soulève des questions éthiques et pratiques majeurs pour les médecins, les patients, les autorités et les régulateurs.

Un robot peut-il substituer mon médecin ? Un algorithme est-il capable de déterminer ma procédure chirurgicale ? Mes données médicales peuvent-elles être gérées et utilisées par des tiers dans le cloud ?

Lorsque de telles interrogations se posent aux médecins et aux patients, elles mettent en lumière le malaise profond ressenti envers l’IA dans le domaine médical. Au-delà de la technologie, ce sont bien la place de l’humain dans la décision clinique et donc la responsabilité du professionnel de santé qui sont en jeu.

La nouvelle encourageante est qu’un principe se précise de plus en plus et un consensus commence à émerger : l’IA doit appuyer et simplifier le jugement humain, sans jamais compromettre la responsabilité humaine dans les décisions médicales et cliniques. L’intelligence artificielle, pour être réellement utile et digne de confiance, doit être encadrée par des principes éthiques clairs.

En d’autres termes : l’IA doit servir pour accélérer et renforcer la qualité des outils d’aide à la décision clinique, tout en préservant la responsabilité finale entre les mains des professionnels de la santé. Il n’existe pas d’intelligence sans l’intervention humaine.

Un expert de renom a récemment répondu à la question « L’IA remplacera-t-elle les médecins ?» « Non. Cependant, le médecin soutenu par l’IA remplacera celui qui ne l’est pas. »

Cependant de quelle manière ? Il est évident que le défi est d’une grande complexité et nécessite, en plus de répondre à de nombreuses interrogations soulevées par les praticiens en laboratoire et à l’hôpital, un dialogue sérieux, transparent et continu entre experts, chercheurs, entrepreneurs, régulateurs, responsables politiques, assureurs et patients. Ce dialogue est indispensable pour construire une gouvernance éthique de l’intelligence artificielle en santé — une gouvernance à la hauteur des enjeux humains, sans freiner le potentiel d’innovation.

HWL 2025 se positionne comme une plateforme propice à un tel dialogue. La troisième édition de Healthcare Week Luxembourg abordera les opportunités et les défis que l’intelligence artificielle présente pour le secteur de la santé et ses praticiens. Organisé par la Fédération des Hôpitaux du Luxembourg (FHL), en partenariat avec Quinze Mai, l’événement à lieu les 7 et 8 octobre 2025 à Luxexpo The Box. Les inscriptions sont désormais ouvertes sur www.hwl.lu, où le programme détaillé de la conférence est régulièrement mis à jour.

HWL 2025 vise à créer un forum pour se préparer de manière efficace à l’arrivée en force de l’IA dans des produits et services médicaux destinés à accompagner les professionnels de santé et des patients. La conférence constitue une opportunité pour les experts de débattre des questions éthiques, de la gouvernance, de l’application et de l’impact de l’IA dans le secteur de la santé. Dans la partie consacrée à l’éthique et la gouvernance, la conférence abordera quatre thèmes : transparence, clarté légale, responsabilité collective et la surveillance continue.

  1. Transparence

Les dispositifs médicaux utilisant l’IA devraient être conçus en tenant compte de la transparence. Pour que les professionnels de la santé se fient à l’IA pour des décisions médicales cruciales, ils doivent comprendre les raisons et les algorithmes qui conduisent à ces décisions. Cela implique de concevoir une intelligence artificielle explicable fournissant des justifications claires pour ses recommandations, plutôt que de fonctionner comme une « boîte noire » opaque. Lorsque les médecins sont en mesure de comprendre et de valider les suggestions basées sur l’IA, ils sont plus à même de prendre des décisions éclairées tout en gardant leur responsabilité dans le soin des patients.

  1. Clarté légale

Les cadres juridiques doivent évoluer pour s’adapter aux avancées technologiques permises par l’IA. De nombreuses législations existantes sur la responsabilité médicale ont été conçues en tenant compte des décisions humaines et ne prennent pas suffisamment en compte le rôle de l’IA dans le secteur de la santé quand elle est intégrée à des dispositifs médicaux. Il est impératif que les gouvernements et les autorités de régulation instaurent des directives précises qui définissent la responsabilité en cas d’erreurs médicales basées sur des outils intégrant une composante IA. Par exemple :

  • L’AI Act de l’Union européenne, récemment adopté, constitue une étape majeure vers une régulation adaptée de l’intelligence artificielle. Ce texte réglementaire vise à encadrer de manière éthique et responsable le développement et l’utilisation de l’intelligence artificielle, tout en renforçant la compétitivité de l’UE dans ce domaine. Il prévoit un cadre harmonisé basé sur une approche par les risques, imposant des exigences strictes en matière de transparence, de traçabilité et de sécurité pour les systèmes d’IA à haut risque, comme ceux utilisés dans le domaine médical. Cette législation contribue à clarifier les responsabilités des développeurs, des fournisseurs et des utilisateurs de systèmes d’IA, renforçant ainsi la sécurité juridique pour les acteurs de la santé.
  • Le Règlement général sur la protection des données (RGPD) impose des obligations fortes en matière de traitement des données personnelles, ce qui est particulièrement crucial dans le cadre des applications d’IA médicale traitant des données de santé sensibles. De même, la directive NIS2, qui renforce la cybersécurité des infrastructures critiques, s’applique aux établissements de santé et impose des mesures de gestion des risques, y compris ceux liés à l’utilisation de l’IA.
  • La récente mise en place de l’Espace Européen des Données de Santé (EHDS) constitue un autre exemple remarquable. Entrée en vigueur le 26 mars 2025 au sein de l’Union européenne, cette mesure pourrait, si tout se déroule comme anticipé, marquer une étape importante vers l’harmonisation de l’utilisation des données parmi les pays membres. L’objectif constitue à instaurer un cadre sécurisé pour l’échange de données, tant pour des fins primaires que secondaires, dans le but de favoriser l’innovation, les initiatives d’entrepreneuriat et la coopération internationale au-delà des frontières.

L’articulation de l’AI Act et son accompagnement par le Medical Device Regulation (MDR), l’In Vitro Diagnostic Regulation (IVDR), le RGPD, la directive NIS2 et l’EHDS montrent le progrès que l’Europe a fait dans la régulation de l’IA et souligne l’importance d’une approche réglementaire intégrée, garantissant à la fois l’innovation technologique, la protection des droits fondamentaux et la sécurité des systèmes numériques dans le secteur de la santé.

  1. Responsabilité collective

Au lieu de considérer la responsabilité comme un fardeau exclusif des médecins ou des développeurs d’IA, elle devrait être perçue comme une tâche et un atout commun. Les hôpitaux, les entreprises de logiciels et les décideurs ont tous un rôle à jouer dans l’implémentation de l’AI Act, pour assurer que l’IA soit déployée de manière sûre, efficace et éthique. Les établissements médicaux devraient exiger une évaluation approfondie des systèmes d’IA avant leur utilisation en milieu clinique.

Les établissements de santé doivent mettre en place des processus rigoureux de validation et d’évaluation clinique avant l’adoption de tout système d’IA. Cela inclut non seulement des audits techniques et des tests de performance, mais aussi une évaluation éthique, centrée sur l’impact pour les patients et les professionnels.

La conformité réglementaire est aujourd’hui structurée autour d’un cadre européen exigeant, qui articule plusieurs instruments : le Règlement sur les dispositifs médicaux (MDR), l’AI Act, la directive NIS2 sur la cybersécurité, et le futur Espace Européen des Données de Santé (EHDS). Ces dispositifs visent à garantir que seuls les systèmes répondant à des critères stricts de sécurité, d’efficacité, de transparence et de robustesse puissent obtenir le marquage CE, condition indispensable à leur mise sur le marché.

Ce processus repose sur l’intervention d’Organismes Notifiés, ainsi que sur le respect de systèmes de gestion de la qualité reconnus, comme l’ISO 13485 pour les dispositifs médicaux et l’ISO 27001 pour la sécurité des systèmes d’information.

La première étape est de vérifier que la technologie dispose d’un marquage CE selon le MDR et l’AI Act. Si oui, il faut également examiner les données d’évaluation disponibles et réaliser, si nécessaire, d’autres études de validation. Si la technologie n’est pas encore certifiée, l’hôpital peut se positionner comme partenaire de la société porteuse de la technologie pour collecter, au travers d’une étude clinique, les données nécessaires pour l’obtention du marquage CE, gage de sécurité, de qualité et d’efficacité de la technologie pour la fonctionnalité revendiquée.

Ce rôle actif des établissements hospitaliers dans l’évaluation réglementaire traduit une approche partagée de la responsabilité : il ne s’agit plus seulement d’acheter une technologie, mais de s’assurer collectivement qu’elle répond aux exigences de qualité, d’éthique et de confiance que les patients et les soignants sont en droit d’attendre.

De plus, une formation adéquate du personnel médico-soignant à l’utilisation et à l’interprétation des outils d’IA est essentielle pour garantir une utilisation éclairée et sécurisée : C’est l’humain qui est au centre du système.

Les développeurs et fournisseurs de solutions d’IA doivent se conformer au cadre légal et réglementaire et ont la responsabilité de concevoir des algorithmes transparents, explicables et robustes. Le marquage CE selon MDR et AI Act avec les exigences réglementaires permettra à un professionnel de santé de distinguer entre une technologie conforme et non conforme au cadre réglementaire. Mais le devoir des développeurs et fournisseurs ne se limite pas à la phase de conception : ils doivent également assurer, avec les utilisateurs et les patients, un suivi post-déploiement pour détecter d’éventuels effets indésirables, corriger les biais, et mettre à jour les systèmes selon l’évolution des pratiques cliniques et des données.

Les décideurs politiques et autorités de régulation, outre la définition du cadre légal et éthique clair, équilibré et adapté à l’évolution rapide des technologies,  ont la responsabilité de favoriser un environnement propice à l’innovation, tout en assurant la protection des droits fondamentaux des patients. Cela passe notamment par la mise en œuvre de mécanismes de surveillance, d’accréditation et de certification, conformément aux exigences européennes. Selon l’AI Act, tous les dispositifs médicaux intégrant de l’IA sont des systèmes à plus haut niveau de risque. Ils sont donc obligés de répondre à des contraintes réglementaires fortes.

Enfin, les patients et les citoyens doivent également être reconnus comme des acteurs de cette responsabilité collective. Dans un avenir très proche, l’intelligence artificielle ne sera plus une option parmi d’autres : toutes les technologies de santé intégreront de l’IA, d’une manière ou d’une autre.. La maladie auquel le patient est exposé remplit son agenda et il est demandeur de solutions, sans pression supplémentaire. C’est pourquoi l’information et la transparence sont cruciales. Les patients doivent pouvoir comprendre les grands principes de fonctionnement des systèmes d’IA, les garde-fous qui les encadrent, les mécanismes de réduction des risques prévus par les réglementations telles que l’AI Act, le RGPD ou la directive NIS2. Il est également important de leur faire connaître l’existence des études cliniques de validation, menées par des hôpitaux et centres de recherche, qui permettent d’évaluer rigoureusement l’efficacité, la fiabilité et la sécurité de ces outils avant leur déploiement.

Face à cette réalité, il est essentiel de rappeler une chose simple mais fondamentale : le patient a droit au meilleur traitement possible, sans ajout de complexité inutile ou d’anxiété supplémentaire. Pour lui, la maladie occupe déjà toute la place. Ce qu’il attend du système de santé, ce sont des solutions fiables, humaines, et compréhensibles.

Surveillance continue

Une surveillance continue est primordiale. L’intelligence artificielle ne doit pas être perçue comme un outil figé, mais comme un système nécessitant des évaluations régulières et des mises à jour fréquentes pour assurer son efficacité. Les règlements MDR et AI Act proposent des organismes désignés pour assurer la compliance aux exigences réglementaires pour l’accès au marché et pour assurer un rôle de surveillance du marché. Des comités d’éthique ainsi que les organismes de contrôle indépendants peuvent ainsi contribuer à déterminer si les systèmes d’IA prennent des décisions justes et précises. En cas de défaillance, telle qu’une tendance aux diagnostics erronés ou aux erreurs d’interprétation des données, il est crucial d’établir des procédures claires pour identifier et rectifier rapidement ces problèmes.

Les évaluations périodiques de performance doivent devenir une norme. Elles permettent de vérifier que les algorithmes conservent un niveau de précision diagnostique conforme aux attentes initiales, qu’ils restent exempts de dérives ou de biais induits par des changements dans les données ou les populations traitées, et qu’ils s’adaptent aux évolutions des protocoles médicaux. Ces évaluations doivent reposer sur des indicateurs de qualité robustes, établis de manière transparente et en concertation avec les professionnels de santé. La participation active des utilisateurs – médecins, soignants, patients – dans les processus de remontée d’information et d’évaluation est un levier puissant pour maintenir la pertinence et l’acceptabilité des systèmes. On pourrait appliquer le même principe que dans la pharmacovigilance et la question clé serait de savoir si les acteurs sont prêts à jouer le jeu.

La traçabilité des décisions algorithmiques est un autre enjeu central. Elle permet non seulement de comprendre le raisonnement sous-jacent aux recommandations cliniques automatisées, mais aussi d’identifier plus rapidement l’origine d’une éventuelle défaillance. Cette exigence est d’ailleurs renforcée par l’AI Act, qui impose un certain niveau d’explicabilité pour les systèmes à haut risque, afin de garantir la responsabilisation des acteurs concernés. La surveillance ne doit pas être limitée aux seuls aspects techniques. Elle doit aussi intégrer une dimension sociale, en analysant l’impact de l’IA sur les pratiques professionnelles, la relation médecin-patient, et la perception de la confiance dans les outils numériques

En cas de dysfonctionnement – qu’il s’agisse de diagnostics erronés, de mauvais triage ou d’interprétation incorrecte de données cliniques –, des procédures claires et réactives sont prévus par les réglementations telles que le MDR et l’IVDR. Cela inclut des mécanismes d’alerte, des protocoles de suspension ou d’adaptation du système, ainsi que des retours d’expérience systématisés. La capacité à détecter rapidement une anomalie et à corriger l’algorithme ou à en limiter l’usage est essentielle pour éviter des conséquences graves sur la santé des patients

Clémence Minota

Je suis rédactrice spécialisée en santé et innovation, passionnée par l'impact des technologies sur l'évolution des soins médicaux. Mon expertise consiste à décrypter les dernières avancées du secteur et à fournir des contenus clairs et pertinents pour les professionnels de santé.

Dans la même catégorie

Bouton retour en haut de la page
1s
toute l'actualité sur l'innovation médicale
Une fois par mois, recevez l’essentiel de l’innovation en santé, sans spam ni surplus.
Une newsletter totalement gratuite
Overlay Image