
Ia et santé : pourquoi l’action publique ne peut plus attendre | terra nova
- Select a language for the TTS:
- French Female
- French Male
- French Canadian Female
- French Canadian Male
- Language selected: (auto detect) - FR
Play all audios:

CETTE SITUATION PROVOQUE, EN L’ÉTAT, DES NIVEAUX DIFFÉRENTS DE CONSCIENTISATION PAR LES ACTEURS DE SANTÉ DE L’INTÉRÊT DU RECOURS À L’IA. A ce stade, le déploiement sur le terrain de
l’intelligence artificielle ne répond à aucun modèle médico-économique normé de déploiement. Cette diffusion est fonction directement de l’engagement des acteurs sur l’innovation, de leur
créativité et aussi souvent de la proximité avec des écosystèmes technologiques. La pression de la démographie médicale représente aussi un critère très important de l’intérêt porté à l’IA
pour aider à l’accès aux soins. A rebours de l’idée reçue selon laquelle l’IA serait avant tout un sujet de structures « de pointe », L’INTELLIGENCE ARTIFICIELLE DE RECONNAISSANCE D’IMAGE
TROUVE, EN L’ÉTAT, PLUS FACILEMENT SON TERRAIN APPLICATIF DANS DES ZONES DE SOUS-DENSITÉ MÉDICALE POUR RÉPONDRE À LA DEMANDE D’ACCÈS AUX DIAGNOSTICS DE SPÉCIALITÉS. MAIS NOUS CONSTATONS
ÉGALEMENT DES DISPARITÉS DANS L’USAGE AVEC DES PRATIQUES TRÈS DIVERSIFIÉES EN MATIÈRE DE CONTRÔLE HUMAIN. Par exemple, dans le domaine de la reconnaissance d’image en traumatologie, des
établissements de santé peuvent utiliser l’intelligence artificielle sans aucun contrôle de radiologue. Si nous ne nous mettons pas rapidement en situation d’homogénéiser les pratiques de
recours à l’IA et de standardiser les démarches de contrôle humain à mettre en œuvre, nous risquons de voir ces disparités s’élargir aux autres spécialités requérant un niveau élevé de
reconnaissance d’image et caractérisées par des tensions significatives de démographie médicale comme la dermatologie ou l’ophtalmologie. 1.3.2 INÉGALITÉS SELON LES REVENUS Ces dispositifs
sont, dans une très large majorité des cas, non intégrés dans des modèles de remboursement mis à part dans le cadre de financements de projets innovants. Certes, la mobilisation du
dispositif de financements expérimentaux dits de l’« article 51 » a pu être utile à la diffusion de solutions d’IA sur le terrain comme dans le domaine du recours à l’intelligence
artificielle dans le champ bucco-dentaire. Pour autant, NOUS NE DISPOSONS PAS ENCORE DE MODÈLE SYSTÉMIQUE DE PRISE EN COMPTE DE CES INNOVATIONS PAR LES FINANCEMENTS CLASSIQUES DE SOLIDARITÉ
FONDANT NOTRE SYSTÈME DE SANTÉ. Or, devant la pression causée par les inégalités de démographie médicale et les attentes de nos concitoyens en matière d’accès aux soins, LE RISQUE EST GRAND
DE VOIR, À COURT TERME, SE DÉPLOYER UNE OFFRE ALTERNATIVE HORS CHAMP DE SOLIDARITÉ. UN VECTEUR TECHNOLOGIQUE NON SOLVABILISÉ PAR LA SÉCURITÉ SOCIALE POURRAIT AINSI VOIR LE JOUR À PARTIR
D’UNE LOGIQUE DE PLATEFORMISATION EXTRA-EUROPÉENNE. Il proposerait, moyennant paiement direct et sans remboursement solidaire, la mise à disposition d’une batterie d’algorithmes courants
d’IA en santé dans une logique d’auto-diagnostic. Une telle configuration serait naturellement dangereuse : porteuse d’un modèle de désintermédiation par les professionnels de santé, elle
ferait courir un risque sur la prise en charge des patients quant à la fiabilité des diagnostics et sans doute surtout quant à la continuité du parcours de prise en charge. Sur le plan
économique et social, cette « offre » serait sans doute en partie attractive pour ceux de nos concitoyens disposant des moyens matériels pour souscrire une forme d’abonnement non couverte
par la Sécurité sociale. Le contrechoc serait très probablement lourd en termes d’inégalités d’accès à l’innovation et porterait en germe la tentation d’un détricotage des solidarités
fondatrices de notre système de santé. 1.4 DE PREMIÈRES INITIATIVES DE STRUCTURATION DANS LES DOMAINES DE LA CYBERSÉCURITÉ ET L’INNOVATION EN SANTÉ « METTRE À L’AGENDA » DES POLITIQUES
PUBLIQUES LE SUJET DE L’INTELLIGENCE ARTIFICIELLE EN SANTÉ EST POSSIBLE : DE PREMIÈRES INITIATIVES SONT DÉJÀ EN COURS DANS LES DOMAINES DE LA GESTION DU RISQUE CYBER ASSOCIÉ À L’IA ET DE LA
RÉNOVATION DES MÉTHODOLOGIES D’ESSAIS CLINIQUES. 1.4.1 IA ET CYBERSÉCURITÉ DANS LE DOMAINE DE LA CYBERSÉCURITÉ, NOUS POUVONS CONSTATER UNE MOBILISATION CROISSANTE DES POUVOIRS PUBLICS POUR
SOUTENIR LES EFFORTS D’ANTICIPATION, DE GESTION DES RISQUES ET DE RÉPONSES AUX CRISES QUAND ELLES SURVIENNENT, CE MOUVEMENT CONCERNANT ÉGALEMENT LE RECOURS À L’INTELLIGENCE ARTIFICIELLE. LES
AVANCÉES MAJEURES ASSOCIÉES À LA DIFFUSION DE L’IA EN SANTÉ SONT, EN EFFET, ACCOMPAGNÉES DE DÉFIS EN MATIÈRE DE CYBERSÉCURITÉ notamment causés par le fait que ces modèles traitent de
données médicales, c’est-à-dire sensibles. Les principaux risques cyber identifiés s’agissant de l’intelligence artificielle sont les suivants : – La désinformation des
patients/professionnels de santé, causée notamment par la génération d’« hallucinations » ou de « confabulation », c’est-à-dire de réponses fausses ou trompeuses présentées comme des faits
certains ; – L’introduction de données biaisées dans le set d’entraînement des algorithmes, menant à des résultats eux-mêmes biaisés ; – L’attaque des SI médicaux, souvent mal protégés et
_on-premise_, c’est-à-dire hébergés sur site. Ces attaques sont de plus en plus fréquentes et peuvent être menées sous forme de _ransomware _; – La fuite de données/le vol de données
médicales, privées et sensibles ; – La manipulation et la modification des modèles par des personnes tierces ; – La non-robustesse des SIA médicaux. Pour répondre à ces enjeux, des briques
de politique publique se mettent en place. Cette thématique peut être ainsi adressée dans le cadre du nouveau plan sur la cybersécurité dans les établissements de santé. Aurélien Rousseau,
Ministre de la Santé et de la Prévention, et Jean-Noël Barrot Ministre délégué chargé du Numérique ont présenté ce plan le 18 décembre 2023 au Centre Hospitalier de Versailles, victime d’une
cyberattaque lourde en décembre 2022. Ce programme _« Cybersécurité accélération et Résilience des Établissements »_ (Care) doté de 250 M€ jusqu’en 2025 avec un objectif d’investissement
total de 750 M€ d’ici 2027 décline ainsi 20 objectifs selon 4 axes : gouvernance et résilience ; ressources et mutualisation ; sensibilisation ; sécurité opérationnelle. Aux côtés du
ministère chargé de la Santé, l’Agence nationale de la sécurité des systèmes d’information (ANSSI) est appelée à jouer un rôle déterminant dans l’appui à la mise en œuvre de ce plan. Des
dispositions spécifiques sont, en outre, prévues par l’_AI Act _européen s’agissant de la cybersécurité des systèmes d’IA à hauts risques : l’article 9 (_“Risk-management system”_) et
l’article 15 (_“Accuracy robustness and cybersecurity”_). En application de ces dispositions, des mesures techniques et organisationnelles doivent être mises en œuvre pour garantir la
résilience face aux erreurs, aux défauts ou aux incohérences qui peuvent survenir au sein du système ou de l’environnement dans lequel le système fonctionne. Les systèmes à haut risque
doivent être résilients aux tentatives d’altération de leurs utilisations, comportements, sorties ou performances par des parties tierces exploitant leurs vulnérabilités. Les systèmes à
apprentissages continus doivent, par ailleurs, être déployés de telle sorte que : – Des résultats potentiellement biaisés ne puissent influencer des données d’entrée pour de futures
opérations ; – Des données d’entrée ne puissent être manipulées de façon malveillante et utilisées pour l’apprentissage des modèles pendant l’opération. Les solutions techniques visant à
remédier aux vulnérabilités propres à l’IA doivent comprendre des mesures pour prévoir, détecter, résoudre et contrôler des problématiques d’empoisonnement des données (_data poisoning_),
d’empoisonnement du modèle (_model poisoning_), d’exemples adverses ou d’évasion du modèle (_adversarial examples or model evasion_), d’attaques de confidentialité ou de failles du modèle.
1.4.2 IA ET INNOVATION EN SANTÉ Cette mobilisation plutôt récente sur la cybersécurité est intervenue pour l’essentiel après la survenue de crises majeures ayant touché principalement des
établissements de santé. Cette aptitude de notre système de santé à répondre aux crises est, en effet, bien documentée par la littérature d’analyse des politiques publiques. Dans son
appréhension plus globale sur les enjeux de prévention et d’accès aux soins, le champ de l’IA en santé se prête, cependant, mal à une telle attitude de construction « à réaction » des
stratégies publiques. Ce domaine requiert en effet de l’anticipation, de la vision stratégique à moyen terme et une évaluation continue et précise des effets du déploiement de l’innovation
pour notre système de santé. LA CRÉATION DE L’AGENCE DE L’INNOVATION EN SANTÉ (AIS) EN 2022 TRADUIT, à cet égard, UN EFFORT CLAIR DE STRUCTURATION D’UN DOMAINE DE POLITIQUE PUBLIQUE –
L’INNOVATION EN SANTÉ – AVEC UN OPÉRATEUR IDENTIFIÉ SOUS L’IMPULSION DU DR LISE ALTER, DES MOYENS DÉDIÉS DANS LE CADRE DU PLAN FRANCE INNOVATION SANTÉ 2030[51] et une formulation lisible
d’objectifs de politique publique. Comme on le verra, cette approche est déjà avancée s’agissant de la révolution des méthodologies d’essais cliniques par l’IA. Elle montre le potentiel
associé à l’engagement d’une démarche de même ordre plus focalisée sur l’IA en matière d’appui à la prévention, d’aide à l’accès aux soins et plus largement de recomposition de notre système
de santé. Cet exemple montre que la France sait aussi se mobiliser pour structurer des domaines de politique publique en bonne intelligence avec les acteurs du système de santé et les
concepteurs d’innovation. POUR AUTANT, L’EXTRAPOLATION DE CETTE APPROCHE EN TERMES DE POLITIQUE PUBLIQUE COHÉRENTE POUR L’ENSEMBLE DU DOMAINE DE L’IA EN SANTÉ RESTE LOIN D’ÊTRE ACQUISE. Or,
dans un contexte de compétition mondialisée sur l’intelligence artificielle, attendre une prochaine crise pour agir reviendrait à coup sûr à faire courir à la France le risque d’un
déclassement. 2. TROIS STIMULI MAJEURS POUR STRUCTURER UNE POLITIQUE PUBLIQUE DE L’IA POUR LA PRÉVENTION ET L’ACCÈS À LA SANTÉ 2.1 DES GAINS MAJEURS DE SANTÉ PUBLIQUE À PORTÉE DE MAIN CETTE
PERCÉE MAJEURE DE L’IA EN SANTÉ CONSTITUE POUR LES PROFESSIONNELS ET POUR LES PATIENTS UNE OPPORTUNITÉ SANS PRÉCÉDENT DE GAINS DE SANTÉ PUBLIQUE. L’IA apporte des bénéfices considérables
pour les patients, pour les professionnels de santé, pour le système de santé en matière de prévention, d’accès aux soins. C’est aussi une réponse à la désertification médicale dans
certaines zones et sur certaines spécialités, et aux grands enjeux de santé publique des prochaines années. Ce moment d’accélération ouvre ainsi des POTENTIALITÉS NOUVELLES D’ACCÈS PLUS
PRÉCOCE AUX DIAGNOSTICS DE SPÉCIALITÉS. Une vraie révolution dans la prévention du cancer du sein est ainsi à portée de main avec la mise au point de systèmes opérationnels d’interprétation
des mammographies. LES APPLICATIONS DE L’IA EN SANTÉ SE RETROUVENT SUR L’ENSEMBLE DES « SEGMENTS » DE LA POLITIQUE DE SANTÉ. Les études scientifiques réalisées mais aussi les premières
expérimentations conduites sur le terrain ont permis de produire un corpus de connaissances – académiques et pratiques – qui est à maturité pour montrer que l’intelligence artificielle peut
réellement changer la donne. L’IA enrichit d’ores et déjà l’action publique en santé sur les quatre grands axes qui la fondent aujourd’hui (tels que structurés par exemple dans la stratégie
nationale de santé 2018–2022[52]) : le renforcement de la prévention ; la lutte contre les inégalités sociales et territoriales d’accès aux soins ; la qualité, la sécurité et la pertinence
des prises en charge à chaque étape d’un parcours coordonné et où le temps médical est mieux préservé ; et enfin le renforcement innovant de la place des usagers au cœur de leur santé. L’IA
PEUT AINSI APPORTER UN GAIN MAJEUR POUR LA SANTÉ DES FEMMES AUSSI BIEN D’UN POINT DE VUE DE LA RECHERCHE MÉDICALE QUE DES PARCOURS DE SANTÉ. En effet, de nombreuses solutions sont
développées dans le champ de la santé reproductive, la santé sexuelle, la prise en charge et la meilleure connaissance de maladies chroniques comme l’endométriose, mais également le suivi de
la maternité et du post partum ou encore l’oncologie. Ces domaines de déploiement de l’IA sont essentiels en matière de santé publique et peuvent permettre de rattraper le retard existant
en matière de santé des femmes dans le cadre d’un écosystème _FemTech France[53] _en structuration rapide. 2.1.1 QUAND L’IA RÉVOLUTIONNE L’ONCOLOGIE LE DOMAINE DE L’ONCOLOGIE CONSTITUE L’UN
DES CHAMPS LES PLUS AVANCÉS DANS LE RECOURS À L’INTELLIGENCE ARTIFICIELLE. Le niveau d’opérationnalité technologique des solutions, les avancées en cours et à venir sur les terrains de la
recherche, de la prévention et du soin mais aussi la capacité très forte de l’écosystème – établissements de santé et professionnels, industriels et concepteurs d’innovations mais aussi
associations de patients – à se fédérer montrent à quel point ces opportunités majeures pour les patients et les professionnels de santé ne peuvent être laissées de côté. Comme l’ont, en
particulier, bien montré les travaux dédiés à l’intelligence artificielle menés dans le cadre de la Convention nationale d’Unicancer 2023[54], l’intelligence artificielle est d’ores et déjà
une réalité en oncologie. Les outils de reconnaissance d’image sont déjà fortement développés pour l’interprétation des mammographies, le dépistage du cancer du côlon ou, en dermatologie, du
mélanome et du carcinome. En radiothérapie, les outils d’aide au contourage des rayons deviennent désormais standard pour mieux cibler les zones tumorales. Par ailleurs, les Centres de
lutte contre le cancer ont déjà structuré des bases de données essentielles – comme ConSoRe[55] – pour l’entraînement des modèles d’intelligence artificielle à des fins de recherche, de
prévention et d’appui à la prise en charge des patients. Ces démarches ont trouvé leur prolongement avec la labellisation de l’entrepôt national d’ONCO-DS[56] dans le cadre de l’appel à
projets national déclenché sur les entrepôts de données de santé. Dans le domaine du pilotage par les données pour améliorer la vie quotidienne des patients, les premiers outils émergent
avec, par exemple, l’admission au remboursement par la Sécurité sociale en octobre 2023 de Résilience, dispositif d’aide suivi des chimiothérapies. L’IA générative ouvre également de
nouvelles perspectives dans l’aide à la réponse aux questions des patients et des proches aidants ou encore dans l’observance des traitements et la synthèse des dossiers médicaux pour les
professionnels. Pour capter ces gains majeurs de santé publique, L’ONCOLOGIE A ÉGALEMENT SU SE MOBILISER POUR STRUCTURER UN ÉCOSYSTÈME ORIGINAL RASSEMBLANT L’ENSEMBLE DES ACTEURS INDUSTRIELS
EN ARTICULATION AVEC LES CENTRES DE LUTTE CONTRE LE CANCER ET L’INSTITUT NATIONAL DU CANCER (INCA) : LA FILIÈRE INTELLIGENCE ARTIFICIELLE ET CANCER (FIAC). Fruit de deux ans de
collaboration entre l’Alliance pour la Recherche et l’Innovation des Industries de Santé (ARIIS) et l’INCa, la création de la FIAC est à ce jour l’une des plus importantes concrétisations du
Programme « Intelligence Artificielle et Santé » issu du Contrat Stratégique de Filière des Industries et Technologies de Santé (CSF-ITS)[57]. L’EXEMPLE DU DÉPISTAGE DU CANCER DU SEIN
MONTRE QUE CE POTENTIEL MAJEUR DU RECOURS À L’IA DANS LE DOMAINE DE LA PRÉVENTION ET DE LA SANTÉ PUBLIQUE NE PEUT ÊTRE APPRÉHENDÉ QUE SI L’ON PENSE DE FAÇON CONCOMITANTE LA CONSTRUCTION DE
L’INNOVATION ET LES MODALITÉS ORGANISATIONNELLES ET PRATIQUES DE SON DÉPLOIEMENT. Dans ce secteur, l’innovation technologique en intelligence artificielle est maintenant portée depuis
plusieurs années. La France a été présente fortement dans cette matière avec de nombreux travaux scientifiques et l’élaboration de solutions compétitives au plan mondial comme celle
développée par la start-up Therapixel. Pour autant, la question du déploiement pratique dans le parcours de dépistage de ces systèmes d’IA de reconnaissance de mammographies avait été peu
analysée jusqu’ici. La publication récente d’une étude sur des données danoises montre l’importance essentielle du choix des paramètres du protocole de déploiement du système d’intelligence
artificielle. L’IMPORTANCE DU PROTOCOLE DE DÉPLOIEMENT ET DES MODALITÉS ORGANISATIONNELLES POUR DIFFUSER L’IA EN MATIÈRE DE SANTÉ PUBLIQUE : L’EXEMPLE DU DÉPISTAGE DU CANCER DU SEIN Cette
étude d’Andreas Lauritzen et al.[58] vise à comparer les modalités d’organisation et les performances en matière de dépistage du cancer du sein selon que celui-ci a intégré ou non un système
d’IA de reconnaissance des mammographies. L’étude porte sur 60 751 et 58 246 femmes de 50 à 69 ans vivant au Danemark ayant connu un dépistage mammographique bisannuel avant et après la
mise en place d’un système d’IA. Le système d’IA (SIA) utilisé est déjà commercialisé et nommé “Transpara” (V1.7.1 ; _ScreenPoint Medical_). Il s’agit d’un modèle d’apprentissage profond de
type _deep learning_ entraîné sur des données européennes et américaines mais sur aucune donnée danoise. Sa fonction est de mettre en évidence des lésions profondes et des calcifications
suspectes dans les mammographies. L’outil va générer un score allant de 1 à 10 (10 étant le seuil maximal déterminant le plus haut niveau de probabilité de détection d’un cancer du sein)
permettant de stratifier un niveau de risque déterminant un niveau de probabilité de cancer du sein. Les mammographies ont été lues conformément aux exigences européennes[59] par une équipe
de 21 radiologues plus ou moins expérimentés. Antérieurement à la mise en œuvre de l’IA, le processus de dépistage relevait d’une double lecture par deux radiologues indépendants, le dernier
lecteur était toujours un radiologue senior. A l’issue du diagnostic, soit un rappel était formulé, soit une réunion des radiologues lecteurs étaient organisées afin de déterminer la
meilleure décision médicale. Postérieurement à l’utilisation du système d’IA, la procédure de dépistage évolue. La radiographie fait l’objet d’une première lecture par l’IA qui accorde un
score de risque. Si ce dernier est de 5 ou inférieur à 5, le dépistage est lu en seconde lecture par l’un des radiologues principaux. Si celui-ci estime un rappel nécessaire alors il devra
se réunir avec les autres radiologues pour prendre une décision. Le 3 mai 2022, le chiffre du score change de 5 à 7, la procédure reste quant à elle inchangée. Les examens restants,
c’est-à-dire supérieurs à 5 avant le 3 mai 2022 puis supérieurs à 7, font l’objet d’une double lecture toujours avec aide à la décision du SIA. L’étude montre que l’utilisation de l’IA dans
ce programme danois dans le cadre d’un dépistage mammographique en population a permis de réduire la charge de travail des radiologues liée à la lecture de 33,5%. L’IA a également permis
d’améliorer la qualité du dépistage lui-même avec un taux de rappel diminué de 20,5%. Le taux de détection du cancer a augmenté passant à 0,82% contre 0,70% avant l’IA. Le taux de faux
positif a été ramené de 2,39% avant recours à l’IA à 1,63%. La valeur prédictive positive est plus élevée avec l’IA, passant de 22,6% avant recours à l’IA à 33,6% après. L’étude souligne,
cependant, des limites méthodologiques importantes comme les impacts distorsifs de la période du Covid-19 dans l’accès au dépistage ou encore les effets d’adaptation des diligences des
radiologues aux protocoles avec ou sans IA. 2.1.2 L’IA ET L’INNOVATION THÉRAPEUTIQUE L’intelligence artificielle ouvre, par ailleurs, des PERSPECTIVES CONSIDÉRABLES D’ACCÉLÉRATION DE
L’INNOVATION THÉRAPEUTIQUE EN FRANCE ET EN EUROPE. Au stade amont, LA PERCÉE DE L’IA GÉNÉRATIVE PERMET DE FRANCHIR UNE ÉTAPE TRÈS IMPORTANTE DANS L’IDENTIFICATION ET LA SYNTHÈSE DES
PUBLICATIONS MÉDICALES ET SCIENTIFIQUES. IA GÉNÉRATIVE ET SYNTHÈSE DES PUBLICATIONS SCIENTIFIQUES Les progrès de l’IA générative (principalement via les nouveaux LLMs de type GPT-4 ou
GPT-4o) vont radicalement changer la manière d’analyser les publications scientifiques. Pour rappel, ces modèles excellent dans l’analyse, la compréhension, la génération et la synthèse du
langage naturel à une échelle et une précision qui dépassent l’humain. L’IA générative (IAG) permet un meilleur accès à la connaissance pour les chercheurs. Elle ouvre également la voie à
l’analyse de vastes quantités de données pour extraire des tendances, générer des résumés précis mais également pour suggérer de nouvelles pistes de recherche basées sur un large panel de
publications. L’intégration de l’IAG dans la recherche académique présente donc des avantages considérables, tels que : – Une réduction significative du temps consacré à la recherche
documentaire et à la rédaction ; – Une amélioration de la qualité des publications ; – Une traduction automatique des articles. Néanmoins, certaines problématiques éthiques telles que la
génération d’hallucinations, la présence et l’amplification de biais, ou encore le respect des droits d’auteurs sont à prendre en considération. L’adoption de l’IAG peut être vue comme une
révolution dans l’analyse des publications scientifiques, offrant des outils puissants pour la synthèse de l’information et la génération de nouvelles connaissances. Néanmoins, cette
adoption doit être accompagnée d’une régulation forte et d’une réflexion sur ses implications éthiques. L’IA RÉVOLUTIONNE LA CHAÎNE DE PRODUCTION DES MÉDICAMENTS ET DES DISPOSITIFS MÉDICAUX
EN PERMETTANT DE RÉALISER VIRTUELLEMENT – _IN SILICO – _LES PREMIÈRES ÉTAPES DE L’INNOVATION THÉRAPEUTIQUE. Le déploiement sur une large échelle de ces nouveaux outils va profondément
transformer les modèles de mise en œuvre des essais cliniques, accélérer l’innovation et induire potentiellement d’importantes économies d’échelle dans un contexte dans lequel notre système
de santé éprouve de plus en plus de difficultés à financer et rendre accessibles les thérapeutiques nouvelles. DONNÉES ARTIFICIELLES, ESSAIS CLINIQUES _IN SILICO_, JUMEAUX NUMÉRIQUES : L’IA
COMME CATALYSEUR DE L’INNOVATION THÉRAPEUTIQUE Faire plus et mieux : cette promesse de l’IA appliquée au domaine de la santé revêt différentes formes. En particulier, les données de santé
artificielles offrent des perspectives inédites, avec la possibilité de gagner en puissance, de réaliser plus de tests, dans un contexte plus sécurisé et ainsi de contribuer à développer de
nouveaux traitements efficaces, sûrs et utiles aux patients. Dans son rapport précité sur l’IA générative en santé, l’Académie nationale de médecine relève l’apport de cette technologie dans
la découverte conventionnelle des médicaments[60] mais surtout dans l’optimisation des fonctions-supports du secteur pharmaceutique. Pour rappel, on estime que le développement d’un
médicament prend au minimum 12 ans avec un coût de 1 à 3 milliards. Dans ce secteur, l’IA générative doit pouvoir accélérer la génération de molécules, grâce à l’utilisation de réseaux
antagonistes génératifs (GAN), de réseaux de neurones récurrents (RNN) et des réseaux de neurones graphiques (GNN). Le gain de productivité par rapport au temps nécessaire jusqu’à maintenant
à un chimiste est estimé à 50% pour la phase de conception et un peu moins pour les phases ultérieures de développement. Les SIAgen peuvent également aider à prédire les interactions
potentiellement dangereuses entre médicaments.[61] Le Livre Blanc sur les données artificielles en santé, publié le 30 avril 2024 et coordonné par le Dr Jean-Louis FRAYSSE et le Pr Stéphanie
ALLASSONNIERE[62] explore les nouvelles perspectives offertes par l’intelligence artificielle (IA) dans le vaste champ des données artificielles. Ce document essentiel pour clarifier le
débat sur ces question détaille les enjeux et les perspectives qu’offre l’utilisation des cohortes de patients artificiels dans les essais cliniques. Concrètement, demain, des patients «
artificiels » pourront être créés sur la base des données cliniques existantes, recueillies dans le cadre du soin ou de recherches précédentes. L’enjeu de ces « patients artificiels » est
d’optimiser la conduite des essais clinique en limitant et simplifiant les besoins de recrutement de patients, tout en garantissant la sécurité́ et le niveau de preuve de ces essais. Après
avoir détaillé les fondements et justifications scientifiques de l’élaboration de ces données de santé dites artificielles, à savoir l’augmentation de données conventionnelles, le Livre
Blanc retrace les usages attendus de ces cohortes de patients artificiels, notamment dans le cadre de la recherche clinique pour renforcer la puissance d’un essai clinique et lui permettre
de conclure par exemple. Ces outils de génération de cohortes de patients artificiels sont en cours de validation pour leur usage en recherche clinique, même si la preuve de concept de son
utilisation a bien été faite et précisée dans un chapitre de ce livre blanc. La mobilisation de ces outils requiert des garanties de sécurité pour les patients et les usagers, tant au
niveau de la protection des données que sur les garanties de confiance pour les produits de santé développés à l’aide de données artificielles (la génération de données
artificielles est un exemple d’utilisation secondaire des données de santé collectées lors des prises en charge des patients). En rassemblant des acteurs publics et privés de divers
secteurs, ce livre blanc vise à promouvoir l’innovation en santé et à renforcer la compétitivité de la France et de l’Europe dans ce domaine. Un essai clinique _in silico_ désigne une
méthode de recherche biomédicale utilisant la modélisation informatique et la simulation pour étudier les processus biologiques et les effets de médicaments. Plutôt que de mener des
expérimentations sur des êtres humains ou des animaux, les essais _in silico_ s’appuient sur des modèles informatiques complexes pour simuler la réponse du corps humain aux différentes
substances. Ces essais ont plusieurs avantages. Premièrement, ils réduisent la nécessité de tests sur des animaux ou des humains, ce qui est à la fois éthique et pratique. Deuxièmement, ils
peuvent être plus rapides et moins coûteux que les essais cliniques traditionnels. Enfin, ils permettent de tester des hypothèses sur de larges populations virtuelles, qui seraient
difficiles à réunir dans la réalité. Les jumeaux numériques, des répliques virtuelles de systèmes biologiques ou de patients individuels, constituent une autre avancée révolutionnaire
propulsée par l’IA. En créant des modèles numériques précis de patients, les chercheurs peuvent personnaliser les traitements et prédire les réponses aux thérapies avec une précision
inédite. Ces innovations permettent non seulement d’optimiser le parcours de soins pour chaque patient, mais aussi de faciliter une médecine de précision qui s’adapte aux particularités
génétiques et physiologiques individuelles. A rebours du constat général sur un certain retard de conception des politiques publiques en matière d’IA, ce vaste champ de la rénovation des
méthodologies d’essais cliniques fait l’objet d’une initiative portée l’Agence de l’Innovation en Santé avec F-CRIN[63] dans le cadre des orientations du plan Innovation Santé 2030. Les
premières conclusions de ces travaux présentés au mois de mai 2024 et lors de la journée nationale organisée à Lille le 24 juin par l’AIS et F-CRIN[64] montrent que des perspectives fortes
de structuration des synergies action publique / initiatives privées peuvent émerger à court terme. 2.2 UNE COURSE CONTRE LA MONTRE POUR ÉVITER UNE PERTE DE SOUVERAINETÉ ET DE MAÎTRE DU
SYSTÈME DE SANTÉ : VERS UN « NETFLIX DE L’IA EN SANTÉ » ? L’INTELLIGENCE ARTIFICIELLE TRANSFORME DONC D’ORES ET DÉJÀ EN PROFONDEUR NOTRE SYSTÈME DE SANTÉ. LE NON-DÉPLOIEMENT DE CES
DISPOSITIFS D’IA INDUIT _A CONTRARIO__ _DES PERTES DE CHANCES DANS L’ACCÈS AUX SOINS MAIS AUSSI DANS LA DIFFUSION DE L’INNOVATION DANS LE SYSTÈME DE SANTÉ. Ce constat du risque éthique pour
les professionnels et les patients associé à un retard de diffusion de l’intelligence artificielle avait été porté par le Comité consultatif national d’éthique dès son avis 129 de 2018 et
réitéré dans son avis 141 de 2023 précité et émis conjointement avec le Comité consultatif national pilote d’éthique du numérique. Ces enjeux restent encore sous-jacents aujourd’hui mais
sont appelés à devenir de plus en plus visibles. Par ailleurs, LE NUMÉRIQUE REND PLUS POREUX ENTRE EUX LES SYSTÈMES DE SANTÉ, ET NOS CONCITOYENS ONT DE MOINS EN MOINS DE RÉTICENCES À SE
TOURNER VERS DES OUTILS NUMÉRIQUES CONÇUS HORS DE NOS FRONTIÈRES. POUR PRÉVENIR CE RISQUE D’APPARITION D’UN « NETFLIX DE L’IA EN SANTÉ », SOURCE DE DÉSINTERMÉDIATION PAR LES PROFESSIONNELS
DE SANTÉ, IL EST URGENT DE DÉVELOPPER DES OUTILS D’IA DANS UN CONTEXTE DE SOUVERAINETÉ NUMÉRIQUE FRANÇAISE ET EUROPÉENNE. A cet égard, le potentiel d’applications de nouvelles solutions d’IA
générative pour synthétiser les dossiers patients représente sans doute un enjeu clé dans l’année qui vient. En effet, des solutions d’IA arrivent à maturité pour synthétiser ces ensembles
de documents et données sur le parcours du patient pour faire gagner du temps aux professionnels de santé et les accompagner dans leurs décisions de prise en charge. La maîtrise de ces
systèmes d’IA applicables aux dossiers patients informatisés (DPI) des établissements de santé ou en ville et – plus encore – des dossiers constitués au plan national comme le dossier
pharmaceutique (DP) porté par l’Ordre des Pharmaciens et le DMP doit pouvoir constituer une priorité urgente et partagée d’une future politique publique de l’IA en santé. L’exemple du
dispositif « DALVIA » récemment présenté par La Poste Santé & Autonomie montre que des initiatives françaises fortes existent déjà en ce sens. IA GÉNÉRATIVE ET SOUVERAINETÉ NUMÉRIQUE :
L’EXEMPLE DU PROJET DALVIA DE LA POSTE SANTÉ & AUTONOMIE POUR SYNTHÉTISER LE DOSSIER MÉDICAL DU PATIENT En collaboration avec des acteurs français tels que Mistral AI et le cloud de
confiance NumSpot, Dalvia Santé a pour ambition de contribuer à l’amélioration des soins en redonnant du temps médical aux professionnels de santé. Actuellement en test au sein
d’établissements de santé, la solution sera distribuée par La Poste Santé & Autonomie à compter de septembre 2024. Dalvia Santé est conçue pour aider les professionnels de santé à
optimiser leur organisation et à regagner du temps médical à consacrer à leurs patients. Les premiers tests réalisés en situation réelle dans des hôpitaux permettent d’estimer un gain de
temps supérieur à 1 heure par jour et par médecin. La solution d’IA générative permet d’accéder plus rapidement aux informations médicales du patient et de préparer la synthèse des
informations nécessaires à la coordination des soins en produisant des documents types, tels que la lettre de liaison, pour le médecin adresseur par exemple lors de la sortie du patient de
l’hôpital. Le choix a été fait d’intégrer nativement un dispositif de garantie humaine et de conformité AI Act européen construit dans le cadre de la démarche de labellisation par Ethik-IA
et le Digital Médical Hub. 2.3 UN CADRE JURIDIQUE DÉSORMAIS PROPICE À UN DÉPLOIEMENT DE SOLUTIONS D’IA DE CONFIANCE LA FINALISATION DU NOUVEAU RÈGLEMENT EUROPÉEN SUR L’IA – L’_AI ACT _–
CONSTITUE UNE ÉTAPE MAJEURE POUR LA DIFFUSION DE L’IA EN SANTÉ EN FRANCE ET EN EUROPE. Ce texte est assorti d’un cadre de régulation global pour l’ensemble des systèmes d’IA quels que soient
leurs domaines d’application. Il emporte une série d’obligations – assorties d’un niveau de sanctions financières équivalentes à celles du RGPD – graduées en fonction du niveau de risque
des systèmes, classifiés selon leur domaine sectoriel d’application. Ce projet de règlement de l’Union européenne sur l’intelligence artificielle a pour objectif d’établir des règles
harmonisées sur l’intelligence artificielle au sein de l’Union et de faire de l’Europe un précurseur en termes de régulation de l’IA sans toutefois freiner l’innovation. L’approche
privilégiée a été de FONDER LES EXIGENCES SUR LE NIVEAU DE RISQUE ENGENDRÉ PAR LES SYSTÈMES D’IA POUR LA SANTÉ, LA SÉCURITÉ OU LES DROITS FONDAMENTAUX. Elle prévoit donc quatre niveaux de
risque : inacceptable, haut risque, risque limité et risque minime. Les principales exigences du règlement concernent les systèmes d’IA à haut risque, parmi lesquels figure notamment la
santé, avec des sanctions associées pouvant aller de 1 à 7% du chiffre d’affaires annuel mondial. Le Chapitre 2 du titre III inclut des exigences qui devront être respectées par les
fournisseurs et utilisateurs de ces systèmes, qui concernent : – Un système de gestion des risques et de la qualité – Les données et la gouvernance des données – Une documentation technique
précise – Un enregistrement des journaux (_Record-keeping_) – La transparence et la fourniture d’information – Le contrôle humain – La cybersécurité, la robustesse et l’exactitude Dans cette
logique essentielle de qualité et gestion des risques associés à l’intelligence artificielle, LA RECONNAISSANCE DU PRINCIPE DE CONTRÔLE HUMAIN OU DE GARANTIE HUMAINE DE L’IA SE SITUE EN
COHÉRENCE AVEC LE CADRE DÉJÀ INTRODUIT EN FRANCE PAR LA LOI DE BIOÉTHIQUE D’AOÛT 2021. LA GARANTIE HUMAINE DE L’IA Pour rappel, dans le champ de la santé, cette obligation de conformité en
Garantie Humaine est recommandée depuis 2018 par le Comité consultatif national d’éthique[65], notion inscrite à l’article 17 de la loi de bioéthique du 2 août 2021 (Loi n°2021–1017), ainsi
que dans les recommandations de l’OMS de 2021 sur l’éthique et la gouvernance de l’intelligence artificielle[66]. Ce principe a également fait l’objet de nombreux travaux de la part de la
Société française de santé digitale (SFSD). CE PRINCIPE DE GARANTIE HUMAINE A ÉGALEMENT ÉTÉ REPRIS AUX ARTICLES 14 ET 26 DU RÈGLEMENT EUROPÉEN SUR L’IA. L’ARTICLE 14 DU PROJET implique pour
les fournisseurs de systèmes d’IA à haut risque de mettre en œuvre des mesures de contrôle humain dès la conception, afin de permettre une mise en application en vie réelle par les
utilisateurs de la solution suite à la mise sur le marché ou la mise en service du système. L’ARTICLE 26 DU PROJET, qui fait partie du chapitre 3 « Obligations incombant aux fournisseurs et
utilisateurs de systèmes d’IA à haut risque et à d’autres parties », concerne les obligations des utilisateurs de systèmes d’IA, qui utilisent les ressources fournies par les
fournisseurs pour assurer la conformité du système et son bon fonctionnement après la mise en service ou la mise sur le marché́ du système. Les utilisateurs doivent par ailleurs s’assurer
que le contrôle humain sera confié à des personnes ayant les compétences, la formation, l’autorité et les ressources nécessaires à cette fin. S’agissant de l’IA générative, l’approche
retenue a permis un compromis entre les différentes propositions, en distinguant deux niveaux pour les modèles de fondation et les GPAI. Les modèles emportant des RISQUES SYSTÉMIQUES
(notamment dépassant un seuil de 10^25 FLOPS[67]) intégreront des obligations supplémentaires (évaluation des risques systémiques, cybersécurité et environnement, codes de bonnes pratiques,
transparence…) et les seuils pour les systèmes d’IA génératives dans lesquels ils seront intégrés seront relatifs au nombre d’utilisateurs finaux européens. Pour les systèmes « _low tier_ »,
les obligations seront bien plus légères. Les systèmes en _open source[68]_ et la R&D sont quant à eux exclus de la règlementation. Le Trilogue a également permis de trouver un
compromis quant au calendrier : une ENTRÉE EN APPLICATION PROGRESSIVE ENTRE 6 ET 36 MOIS : * 6 mois pour les cas d’usage prohibés * 12 mois pour les modèles de fondation et l’IA générative *
24 mois pour les exigences des systèmes à haut risque * 36 mois pour les réglementations d’harmonisation DÈS 2024, LES INITIATIVES DE COMPLIANCE VOLONTAIRE DANS UNE LOGIQUE DE QUALITÉ ET
GESTION DES RISQUES SONT ENCOURAGÉES. Le co-rapporteur Brando Benifei a ainsi affirmé lors de la conférence de presse clôturant le Trilogue : « _We will work on voluntary compliance, and we
encourage everyone to start respecting the rules in a gradual way, this will be the big work of 2024_ ». UN CADRE DE RÉGULATION DE L’IA A ÉGALEMENT ÉTÉ POSÉ AUX ETATS-UNIS AVEC, SUR LE FOND,
UNE CONVERGENCE ASSEZ FORTE AVEC L’EUROPE SUR LA RECONNAISSANCE D’UNE OBLIGATION DE SUPERVISION HUMAINE DES SYSTÈMES D’INTELLIGENCE ARTIFICIELLE. A CE STADE, IL CONVIENT DONC DE SORTIR DE
L’IDÉE QUE L’EUROPE AURAIT « SURRÉGLEMENTÉ » L’IA EN SANTÉ : C’EST PLUTÔT UNE CONVERGENCE TRANSATLANTIQUE QUI SE DÉGAGE AU PLAN JURIDIQUE. A la suite des opinions de régulation précédemment
émises depuis 2021 par la FDA exigeant une supervision humaine (_Human Oversight_) des systèmes d’IA, l’_Executive Order _publié par le Président Biden à la fin du mois d’octobre 2023
établit dans son principe et ses modalités un cadre de régulation au moins aussi contraignant que le règlement européen sur l’IA[69]. Ce texte – de portée globale pour l’ensemble des champs
applicatifs de l’IA – demande au « Secretary of HHS »[70] d’établir une task force mettant en œuvre un plan stratégique pour une utilisation responsable de l’IA dans la santé et les services
sociaux. Cette démarche doit intégrer la prise en compte d’un contrôle humain approprié des résultats de l’IA. Pour autant, il convient naturellement de relever que s’il y a bien
convergence sur le fond des mesures de régulation, LA PORTÉE JURIDIQUE DES CADRES POSÉS POUR LA RÉGULATION DE L’IA EN SANTÉ DANS L’UNION EUROPÉENNE ET AUX ETATS-UNIS N’EST PAS LA MÊME. En
effet, alors que le règlement européen s’impose – sans mesures applicatives nationales complémentaires – aux lois nationales dans l’UE et ne peut être modifié que selon le processus
législatif communautaire, ce qu’un _Executive Order _a fait aux Etats-Unis, un autre _Executive Order _peut le défaire. Dans ce domaine comme bien sûr dans beaucoup d’autres, il conviendra
donc de suivre avec la plus grande attention les résultats des échéances électorales américaines du mois de novembre 2024. 3. L’URGENCE D’UNE POLITIQUE PUBLIQUE DE DÉPLOIEMENT D’UNE IA DE
CONFIANCE POUR LA PRÉVENTION ET À L’ACCÈS À LA SANTÉ Dans un contexte de demandes fortes de nos concitoyens en matière d’accès aux soins, la diffusion de l’intelligence artificielle ne
constituera naturellement pas une réponse globale à toutes les préoccupations. Elle peut, cependant, constituer un adjuvant utile pour renforcer les démarches de prévention, accélérer
l’innovation thérapeutique ou encore faciliter l’accès aux diagnostics de spécialités, en particulier dans la ruralité ou dans les quartiers urbains en difficulté. La pression de la demande
d’usages, dans un contexte de recours de plus en large au numérique dans les différents domaines de la vie économie et sociale et de porosité plus grande des systèmes de santé entre eux sous
l’effet de la digitalisation, risque pourtant de conduire à une diffusion non maîtrisée de ces outils. Un tel mouvement, assorti de problématiques médicales potentielles évidentes, se
doublerait de risques de perte de souveraineté numérique pour notre système de santé et d’un approfondissement des inégalités d’accès à l’innovation (selon les territoires et selon les
revenus). La structuration d’une politique de santé en faveur de l’intégration et du déploiement rapides de dispositifs d’IA de confiance, prenant en compte les enjeux de santé publique et
médico-économiques, apparaît donc comme un impératif dont l’urgence se fait de plus en plus ressentir en cette année 2024. Tout ne pourra bien sûr pas se faire du jour au lendemain dans un
domaine requérant une combinatoire d’actions opérationnelles et de vision stratégique pour l’avenir de notre système de santé et d’autonomie. A cet égard, il convient donc de distinguer
entre les leviers d’action à court et à moyen terme. Par ailleurs, il importe d’insister, dans un contexte de changements si rapides, sur l’importance d’une veille technologique en continu
sur les avancées de l’IA en santé. 3.1 LEVIERS D’ACTION À COURT TERME : DONNER UNE IMPULSION FORTE POUR ACCÉLÉRER L’ENTRÉE DE L’IA DANS LE RÉEL DE L’ACCESSIBILITÉ DES SOINS * DONNER UNE
IMPULSION POLITIQUE POUR LA DIFFUSION DE L’IA EN SANTÉ Nous l’avons vu, les changements à l’œuvre liés à la diffusion de l’intelligence artificielle au sein de notre système de santé et
d’autonomie sont d’ores et déjà considérables et vont continuer à s’accélérer. CES ÉVOLUTIONS SE SONT, POUR L’ESSENTIEL, OPÉRÉES JUSQU’ICI DANS UNE LOGIQUE _BOTTOM-UP_,_ _C’EST-À-DIRE À
PARTIR DU TERRAIN. CE FAISANT, CETTE DYNAMIQUE EST SOURCE DE CRÉATIVITÉ dans l’appropriation de ces outils par les acteurs du système de santé. POUR TENTER DE CONJURER LES RISQUES D’UNE
DIFFUSION NON MAÎTRISÉE, CHERCHER À SUBSTITUER À CETTE LOGIQUE UN SCHÉMA _TOP-DOWN_ CONSTITUERAIT TRÈS PROBABLEMENT UNE ERREUR. Tout se passe, en l’état, comme si la question de l’IA d’accès
aux soins avait été appropriée d’abord par les acteurs de terrain puis par certaines agences régionales de santé en avance de phase[71] avant maintenant de remonter vers le niveau national.
Le ministère de la Santé a, par ailleurs, fait évoluer sa structuration sur le numérique en identifiant un portage politique de ces sujets relatifs à l’IA et à l’accès aux soins par un
pilote du numérique auprès de la direction générale de l’offre de soins (DGOS) et en concentrant les moyens de mise en œuvre opérationnelle au sein de la délégation pour le numérique en
santé (DNS). Dans ce contexte et au regard de l’ampleur majeure des enjeux en cause, LA STRUCTURATION D’UNE POLITIQUE PUBLIQUE DE L’IA EN SANTÉ GAGNERAIT SANS DOUTE À SE DÉPLOYER DANS LE
CADRE D’UN LIEU DE PORTAGE ORIGINAL, ASSOCIANT POUVOIRS PUBLICS (représentant le niveau national et les ARS), REPRÉSENTANTS DES PATIENTS, ACTEURS DE SANTÉ ET REPRÉSENTANTS DES INNOVATEURS EN
IA. La présence dans cette instance des acteurs de la prévention, de la couverture du risque et de l’assurabilité du recours aux systèmes d’IA revêt bien sûr une importance particulière. En
outre, la participation de représentants des collectivités territoriales – et notamment des Régions en tant qu’acteurs de la recherche et de l’innovation numérique et des Départements sur
les politiques d’autonomie – présenterait un intérêt pour faire émerger et relayer les initiatives du terrain. Évidemment, l’objectif ne doit pas être ici d’établir une couche de plus dans
l’administration déjà complexe du numérique en santé mais plutôt de s’organiser collectivement en mode gestion de projet pour remporter le contre-la-montre de la compétition mondialisée sur
l’IA en santé. La constitution d’un Conseil stratégique de l’IA en santé, présidé par le ou la Ministre chargé de la Santé, doté d’une lettre de mission interministérielle et s’appuyant sur
une task-force légère mobilisant la DGOS et les équipes de la DNS pourrait constituer une formule appropriée. PROPOSITION 1 : Constituer un Conseil stratégique de l’IA en santé associant
pouvoirs publics, représentants des patients, acteurs de santé et représentants des innovateurs en IA pour structurer la politique publique d’accompagnement de la diffusion de cette
technologie sans brider les initiatives de terrain * OBSERVER ET DOCUMENTER LA DIFFUSION DU RECOURS AUX SYSTÈMES D’IA COMME LEVIER DE PRÉVENTION ET D’ACCÈS AUX SOINS DANS UNE LOGIQUE DE
RESPONSABILITÉ POPULATIONNELLE[72] L’ANAP (Agence nationale d’appui à la performance des établissements de santé et médico-sociaux) a été l’une des premières institutions à proposer et
diffuser une liste concrète des différents outils d’IA pour la santé, classés en différentes catégories d’usages potentiels. Ce recensement permet aux acteurs de santé de disposer d’un
panorama des outils d’IA[73]. L’accélération très rapide de la diffusion de la technologie nécessite, en outre, la mobilisation d’outils de veille permanente. De ce point de vue, la
plateforme de veille du recours à l’IA constitué dans le cadre des travaux du think tank _Heath&Tech[74]_, porté par Care Insight, constitue un outil de suivi très précieux._ _ Pour
autant, ces démarches gagneraient à être complétées par la constitution d’un observatoire de la diffusion du recours à l’IA dans des logiques territorialisées de déploiement de programmes
pilotes de prévention et de nouvelles initiatives en matière d’accessibilité des soins. Les moyens publics d’observation des politiques de santé doivent pouvoir être mobilisés à cette fin.
Un bilan au moins annuel de la diffusion de l’IA pour l’accès aux soins serait présenté par ce futur observatoire devant le Conseil stratégique de l’IA en santé. PROPOSITION 2 : Établir un
Observatoire de la diffusion de l’IA pour la prévention et l’accès aux soins permettant de réunir le matériau de suivi sur la diffusion des cas d’usage et ses effets dans une logique de
responsabilité populationnelle en santé. Cet Observatoire intégrerait une forte dimension médico-économique à ses travaux pour dresser et actualiser le bilan des effets de la diffusion de
l’IA au sein de notre système de santé et d’autonomie. * DÉFINIR DANS LE CADRE DE LA PROCHAINE LFSS UN MODÈLE MÉDICO-ÉCONOMIQUE DURABLE POUR LA DIFFUSION DE L’IA EN SANTÉ ET FAIRE ÉMERGER
LES PREMIERS PARCOURS TERRITORIAUX DE SANTÉ MOBILISANT LE RECOURS À L’IA Des moyens très significatifs sont d’ores et déjà mobilisés pour soutenir l’effort d’innovation et de R&D des
systèmes d’IA. Cette démarche doit bien sûr être poursuivie et approfondie dans un cadre français et européen. Une fois développés, labellisés et mis sur le marché, les outils d’IA ne
nécessiteront pas nécessairement un apport systématique d’argent public complémentaire pour soutenir leur diffusion. Pour autant, des éléments de cadrage doivent pouvoir être établis pour
créer les conditions d’un modèle médico-économique durable pour la diffusion de ces outils. Dans un contexte de tensions fortes sur les finances publiques en général et les finances sociales
en particulier, trois cas de figure sont, en effet, sans doute à distinguer : L’IA GÉNÉRATRICE DE RETOURS SUR INVESTISSEMENT DIRECTS SUR L’ADMINISTRATION ET LE PILOTAGE DU SYSTÈME DE SANTÉ
(portant notamment sur les fonctions-supports du système de santé comme l’IA d’appui à l’automatisation des admissions des patients, l’IA d’aide au codage des actes médicaux ou encore l’IA
d’aide à l’optimisation des fonctions de documentation, de signalement ou de gestion des dossiers d’autorisations d’activités par les agences régionales de santé) pour lesquels les gains
d’efficience doivent permettre à eux seuls de documenter et légitimer le coût d’acquisition des systèmes d’intelligence artificielle ; L’IA GÉNÉRATRICE D’UNE MEILLEURE ORGANISATION MÉDICALE
ET D’UNE PLUS GRANDE QUALITÉ ET SÉCURITÉ DES SOINS pour laquelle des modèles adaptés de soutien progressif à l’innovation pourront être construits. De ce point de vue, le précédent de
l’incubation de la chirurgie ambulatoire au sein de notre système de santé peut être gardé à l’esprit : un processus pluriannuel avait été mis en œuvre de valorisation tarifaire de la
modalité organisationnelle innovante (la chirurgie ambulatoire) et de dévalorisation de la modalité organisationnelle ancienne (la chirurgie d’hospitalisation complète substituable). Un
dispositif de ce type pourra être utilisé pour soutenir la diffusion de l’IA médicale dès lors que celle-ci devient une modalité quasiment « standard » d’un parcours de soin, comme dans les
cas de l’interprétation de traumatologie aux urgences ou du contourage des rayons en radiothérapie (et ce d’autant plus que les séances de radiothérapie viennent de faire l’objet d’une
forfaitisation) ; L’IA DE PRÉVENTION ET DE SANTÉ PUBLIQUE pour soutenir par exemple le dépistage du cancer du sein ou du cancer du côlon ou le diagnostic en amont de spécialités dans la
ruralité comme en radiologie ou dans la prévention de l’insuffisance cardiaque. Nous savons que ces logiques de prévention et de _Value Based Healthcare[75]_ se heurtent en partie en France
aux logiques de financement à l’acte. Dans ces conditions, des apports de financement public sous la forme d’enveloppes dédiées conditionnées à l’évaluation des gains de santé publique et
médico-économiques obtenus pourraient être identifiés. Comme le montrait le Cercle de Recherche d’Analyse sur la Protection Sociale (CRAPS) dès 2020 dans un rapport consacré à l’impact de
l’IA sur la protection sociale[76], CET EFFORT DE DIFFUSION DURABLE DE L’IA EN SANTÉ DOIT POUVOIR ÊTRE CO-CONSTRUIT ENTRE L’ASSURANCE-MALADIE ET LES MUTUELLES ET ORGANISMES COMPLÉMENTAIRES.
Ces derniers ont ici un champ majeur et nouveau pour montrer toute leur contributivité en matière de repérage de l’innovation émergente en santé et d’intégration de ces nouveaux dispositifs
à leurs formules de contrats pour faire bénéficier ces outils au plus grand nombre. DANS UNE LOGIQUE DE RESPONSABILITÉ POPULATIONNELLE EN SANTÉ, CINQ PREMIERS PARCOURS TERRITORIAUX DE SANTÉ
MOBILISANT L’IA POURRAIENT, EN OUTRE, ÊTRE ENGAGÉS DÈS LE 1ER JANVIER 2025. CETTE EXPÉRIMENTATION VISERAIT LES DOMAINES DANS LESQUELS L’IA A D’ORES ET DÉJÀ FAIT SES PREUVES OPÉRATIONNELLES
ET REPRÉSENTERAIT UN LEVIER D’ACCÈS AUX SOINS ET DE PERTINENCE DES ACTES (TRAUMATOLOGIE, DERMATOLOGIE, MAMMOGRAPHIE, OPHTALMOLOGIE GASTRO-ENTÉROLOGIE OU ENCORE SANTÉ RESPIRATOIRE). A la
suite des premières orientations favorables au développement de l’IA posées dans la nouvelle convention médicale, ce dispositif pourrait intégrer une VALORISATION DE L’ACTE DE CONTRÔLE
MÉDICAL HUMAIN et une démarche d’évaluation des effets observés en termes de prévention, accès aux soins et pertinence des actes. UN ORDRE DE GRANDEUR DE 300 M€ POUR LES DEUX PREMIÈRES
ANNÉES D’ENGAGEMENT DE LA DÉMARCHE permettrait de financer une première étape significative. Ces parcours intégreraient une ÉVALUATION MÉDICO-ÉCONOMIQUE PRÉCISE DES EFFETS DE LA DIFFUSION DE
L’IA EN TERMES D’ACCÈS À LA PRÉVENTION ET AUX SOINS ET DE GAINS D’EFFICIENCE INDUITS. La liste de ces parcours serait validée en Conseil stratégique de l’IA en santé. Ces programmes
seraient engagés sur une durée de trois à cinq ans et feraient l’objet d’une actualisation annuelle. Ces parcours seraient d’abord déployés chacun sur une dizaine de territoires pilotes
(dont une partie en zone de difficultés constatées d’accès aux soins) avant, le cas échéant, d’être étendus au plan national. Nous pouvons donner quelques exemples de parcours susceptibles
d’être rapidement déployés. Chacun de ces parcours aurait naturellement à faire l’objet de discussions approfondies avec les représentants des professionnels concernés et des patients quant
aux possibles modalités de déploiement qui ne sont ici présentées qu’à titre indicatif. PARCOURS 1 : PRÉ-DIAGNOSTIC EN DERMATOLOGIE – Le professionnel en ville ou à domicile mobilise un
OUTIL D’IA DE RECONNAISSANCE D’IMAGE qui permet un premier diagnostic de mélanome ou carcinome – Ce premier avis est, le cas échéant, suivi d’une TÉLÉCONSULTATION AVEC LE MÉDECIN TRAITANT OU
UN DERMATOLOGUE – Un PROTOCOLE D’ADRESSAGE est mis en œuvre avec un ÉTABLISSEMENT DE SANTÉ DE RÉFÉRENCE SUR LE TERRITOIRE PARCOURS 2 : SUIVI DU DIABÈTE – Le professionnel en ville ou à
domicile mobilise UN OUTIL D’IA PERMETTANT LE MONITORING DE LA GLYCÉMIE – Ce premier avis est, le cas échéant, suivi d’une TÉLÉCONSULTATION AVEC LE MÉDECIN TRAITANT OU UN ENDOCRINOLOGUE – Un
PROTOCOLE D’ADRESSAGE est mis en œuvre avec un ÉTABLISSEMENT DE SANTÉ DE RÉFÉRENCE SUR LE TERRITOIRE PARCOURS 3 : SUIVI DE L’INSUFFISANCE CARDIAQUE – Le médecin généraliste mobilise un
SYSTÈME D’IA D’AIDE À LA PRÉVENTION DE L’INSUFFISANCE CARDIAQUE OU À L’INTERPRÉTATION DES ÉLECTROCARDIOGRAMMES (ECG) – Ce premier avis est, le cas échéant, suivi d’une TÉLÉCONSULTATION AVEC
UN CARDIOLOGUE – Un PROTOCOLE D’ADRESSAGE est mis en œuvre avec un ÉTABLISSEMENT DE SANTÉ DE RÉFÉRENCE SUR LE TERRITOIRE PARCOURS 4 : DÉPISTAGE DU CANCER DU SEIN – La diffusion de l’IA
permet d’ÉLARGIR LE DÉPISTAGE PAR UNE ADAPTATION DU PROTOCOLE DE PREMIÈRE LECTURE DANS UNE LOGIQUE D’« ALLER VERS » POUR LES TERRITOIRES LES PLUS EN DIFFICULTÉ D’ACCÈS – La palpation et
l’échographie restent opérées en première ligne par un professionnel médical – Le premier avis par IA est CORROBORÉ PAR UN TÉLÉRADIOLOGUE SPÉCIALISÉ EN MAMMOGRAPHIE dans le cadre d’un
protocole de suivi et d’adressage avec l’établissement de santé de référence – Le dispositif de SECONDE LECTURE AU NIVEAU DÉPARTEMENTAL n’est pas modifié PROPOSITION 3 Établir en Loi de
finance de la Sécurité sociale (LFSS) pour 2025 un modèle médico-économique ternaire de diffusion de l’IA en santé (distinguant IA de pilotage des fonctions-supports, IA d’amélioration de
l’organisation médicale et IA de prévention et de santé publique) et engager dès le 1er janvier 2025 les cinq premiers parcours territoriaux de santé avec IA dans une dizaine de territoires
pilotes et sous garantie humaine médicale. * CRÉER LA CONFIANCE AUTOUR DE L’IA EN SANTÉ EN MOBILISANT LE LEVIER DE LA PRÉPARATION DE L’_AI ACT _EUROPÉEN POUR DIFFUSER UNE CULTURE DE LA
GARANTIE HUMAINE DE L’IA LA CRÉATION DES CONDITIONS DE LA CONFIANCE DES PROFESSIONNELS ET DES PATIENTS AUTOUR DU RECOURS À L’IA EN SANTÉ REPRÉSENTE UN ENJEU PRIORITAIRE POUR ASSURER UNE
DIFFUSION DURABLE DE CETTE INNOVATION TECHNOLOGIQUE. A cet égard, il est nécessaire d’accompagner la mise en conformité à l’AI Act auprès des soignants utilisateurs d’IA afin de déployer des
écosystèmes de confiance sous l’égide des représentants des spécialités concernés et des représentants des patients. C’est précisément le but de la reconnaissance du PRINCIPE DE GARANTIE
HUMAINE dans la loi de bioéthique française d’août 2021 et dans le nouveau règlement européen sur l’IA. POUR PILOTER CETTE CONFORMITÉ ÉTHIQUE ET JURIDIQUE, L’INTÉRÊT DE CRÉATION DE «
COLLÈGES DE GARANTIE HUMAINE » ASSOCIANT REPRÉSENTANTS DES PROFESSIONNELS ET REPRÉSENTANTS DES PATIENTS A ÉTÉ SOULIGNÉ DÈS L’AVIS 129 DU COMITÉ CONSULTATIF NATIONAL D’ÉTHIQUE ÉTABLI DANS LE
CADRE DE LA PRÉPARATION DE LA RÉVISION DE LA LOI DE BIOÉTHIQUE. Des démarches pilotes ont ainsi déjà été initiées dans plusieurs aires thérapeutiques comme : – Les soins bucco-dentaires sous
l’égide de l’Union française pour la santé bucco-dentaire (UFSBD) ; LE PREMIER COLLÈGE DE GARANTIE HUMAINE DE L’IA : LE PROJET PILOTE ORALIEN PORTÉ PAR L’UNION FRANÇAISE POUR LA SANTÉ
BUCCO-DENTAIRE (UFSBD) Le premier projet d’accompagnement en conformité en Garantie Humaine a été initié avec l’Union française pour la santé bucco-dentaire (UFSBD). L’UFSBD avait confié à
Ethik-IA et Vatier la réalisation d’un audit juridique et éthique du fonctionnement de la solution ORALIEN (solution d’IA de reconnaissance d’image mise en œuvre par la start-up française
Dental Monitoring dans le domaine dentaire s’appliquant à 48 EHPAD dans le cadre d’un protocole de financements innovants dits de l’article 51 de la loi de financement de la Sécurité
sociale) afin de s’assurer de la conformité de celle-ci au cadre juridique et éthique de l’IA en santé. La mise en œuvre de ce Collège de garantie humaine associé à l’expérimentation de
l’UFSBD constitue le premier cas effectivement mis en œuvre d’un principe dorénavant inscrit en droit européen. L’audit mis en œuvre a permis l’élaboration d’un modèle de supervision,
consistant en une analyse de dossiers traités par l’IA par des réviseurs chirurgiens-dentistes mandatés par l’UFSBD, des propositions d’actions correctives et un bilan annuel du
fonctionnement du dispositif permettant de le faire évoluer. Le dispositif s’opérant initialement sur une base trimestrielle est désormais mis en œuvre sur une base semestrielle au regard
des résultats observés dans le cadre de cette démarche de supervision humaine. – La radiologie sous la supervision depuis 2018 de DRIM France IA[77] qui rassemble les radiologues libéraux et
hospitaliers ; – La biologie sous égide de la Société française d’informatique des laboratoires (SFIL) ; – Ou encore l’oncologie dans le cadre d’une démarche pilote porté par Unicancer à
l’échelle de l’ensemble des Centres de lutte contre le cancer. L’intérêt de la participation des patients à ces démarches de Garantie Humaine a été très fortement souligné dans le cadre des
travaux menés à ce sujet par France Assos Santé, qui fédère les associations représentatives des patients. Ce faisant, cette collégialité en garantie humaine de l’IA peut être analysée comme
un nouvel espace de démocratie sanitaire permettant un dialogue régulier associant tiers de confiance professionnels, concepteurs d’innovations en IA et représentants des bénéficiaires
finaux. Il est à souligner que ce principe de Garantie Humaine a également été endossé dès 2018 dans le cadre des travaux de la Mutualité française sur l’intelligence artificielle et le data
management en santé conduit par Eric Chenut, désormais Président de la Fédération nationale de la Mutualité française. A la suite de cette démarche, un écosystème de garantie humaine de
l’IA dans le champ mutualiste a été initié mi-2023 avec une initiative pilote de la MGEN pour construire et mettre en œuvre un modèle de conformité applicable aux traitements algorithmiques
utilisés dans ce domaine. La Fédération de l’hospitalisation privée (FHP) a fait de la diffusion de l’IA et de régulation éthique à partir du principe de garantie humaine une des
orientations mises en œuvre dans le cadre de sa nouvelle démarche d’entreprise à mission. Cette initiative rejoint le déploiement rapide des cas d’usage de l’IA sur le terrain. La Haute
Autorité de Santé a, par ailleurs, soutenu ce processus de reconnaissance en intégrant la Garantie Humaine dès 2020 dans les critères identifiés dans le cadre de sa grille d’évaluation des
dispositifs médicaux avec IA préalablement à leur admission par la Sécurité sociale[78]. Lionel Collet, Président de la HAS, a récemment annoncé que les décisions que la HAS seraient amenées
à prendre concernant les systèmes d’IA en santé seraient motivées au regard des dispositifs de garantie humaine mis en place. PROPOSITION 4 _: _ Soutenir la structuration des écosystèmes de
garantie humaine de l’IA par la valorisation du temps médical dédié à la construction des méthodologies de supervision et le développement de plateformes de conformité permettant de garder
la traçabilité du contrôle humain et son auditabilité par le régulateur dans le cadre de l’AI Act européen. 3.2 LEVIERS D’ACTION À MOYEN TERME : PROMOUVOIR UN MODÈLE DURABLE DE DIFFUSION DE
L’IA EN SANTÉ ET EN AUTONOMIE FONDÉ SUR LA GARANTIE HUMAINE DES PROFESSIONNELS DE SANTÉ ET DES REPRÉSENTANTS DES PATIENTS POUR ACCOMPAGNER CES TRANSFORMATIONS, UNE VÉRITABLE DÉMARCHE
D’ACCOMPAGNEMENT À LA CONDUITE DU CHANGEMENT DOIT POUVOIR ÊTRE INITIÉE EN MOBILISANT L’ENSEMBLE DES LEVIERS POSSIBLES. * DOTER LA FRANCE D’UNE PLATEFORME SOUVERAINE D’AIDE À LA MISE EN ŒUVRE
DE CES SYSTÈMES D’IA AU PLUS PROCHE DES PROFESSIONNELS ET DES PATIENTS Pour permettre la mobilisation de ces systèmes d’IA en cohérence avec les réalités quotidiennes des professionnels,
des patients et des proches aidants, la maîtrise du vecteur technologique de distribution de ces outils technologiques dans un cadre de confiance constitue un enjeu-clé. En effet, les
expériences de diffusion d’outils numériques dans le cadre de logiques de plateformisation montrent que la maîtrise de la plateforme représente aussi une condition de maîtrise de l’accès au
service numérique dans ses modalités pratiques mais aussi dans la fixation de ses paramètres économiques. Dans ces conditions, IL CONVIENT DE SOUTENIR LE DÉVELOPPEMENT ET L’HÉBERGEMENT[79]
dans un cadre souverain et de confiance de plateformes de distribution de ces systèmes d’IA en établissements de santé, en ville et à domicile au plus près des professionnels et des
patients. Les systèmes d’IA susceptibles d’être distribués par un vecteur de ce type devront faire l’objet, par les processus adaptés de conformité _AI Act_, labellisation et normalisation,
des mécanismes de reconnaissance et de validation utiles. L’objet ne doit pas être ici de viser une démarche centralisée mais plutôt, par la voie d’un appel à projets national, de favoriser
l’éclosion de consortiums traduisant cette logique de souveraineté numérique. PROPOSITION 5 : Soutenir le développement et l’hébergement dans un cadre de souveraineté et de confiance de
plateformes technologiques d’accès à ces systèmes d’IA en santé et en autonomie au plus près des réalités des professionnels, des patients et de leurs proches aidants. L’objet ne doit pas
être ici de viser une démarche centralisée mais plutôt, par la voie d’un appel à projets national, de favoriser l’éclosion de consortiums traduisant cette logique de souveraineté numérique.
* ENGAGER UNE VÉRITABLE DÉMARCHE STRATÉGIQUE DE GESTION PRÉVISIONNELLE DES EMPLOIS ET DES COMPÉTENCES DANS LE RECOURS À L’IA EN SANTÉ Dans une étude réalisée en 2019, l’Institut
Montaigne[80] préconisait un changement d’approche sur l’accompagnement de ces transformations associées à l’IA pour les métiers de la santé. La proposition d’établir une méthodologie
d’évaluation des impacts de l’IA sur l’emploi permet, à cet égard, d’appréhender les effets de création et de transformation des métiers du secteur de la santé. Les pouvoirs publics auraient
tout intérêt à créer, en la matière, une plateforme de dialogue entre les différents acteurs impliqués. La méthodologie de chiffrage proposée dans cette note s’articule autour de six étapes
clés. La première étape consiste à recenser les effectifs par catégories professionnelles du secteur de la santé, comme par exemple la gestion administrative. Ensuite, il s’agit de
répertorier les métiers appartenant aux catégories professionnelles à l’instar de celui de secrétaire médical(e). Sont ensuite identifiées les activités ou tâches correspondant à chaque
métier, ce qui permet, lors de la quatrième étape, de déterminer le taux de substitution de chaque activité identifiée. L’étape suivante vise à mesurer le taux de substitution pour chaque
métier. Enfin, la dernière étape permet de réaliser des scénarios d’impact. La construction d’un cadre de dialogue associant les représentants des patients, les professionnels de santé, les
partenaires sociaux et les acteurs économiques constitue un axe prioritaire pour mener à bien ce chantier. Dès 2017, Ethik-IA abordait ces enjeux RH dans le cadre de la publication de ses «
cinq clés de régulation de l’intelligence artificielle et de la robotisation en santé ». La clé numéro 4 était, ainsi, rédigée : _« la mise en œuvre d’un dispositif d’intelligence
artificielle ou de robotisation en santé ne doit pas conduire à écarter l’application des principes et règles déontologiques dans l’exercice des professions de santé utilisant ces
dispositifs. Les effets du recours à un dispositif d’intelligence artificielle ou de robotisation sur les conditions de cet exercice doivent, dans toute la mesure du possible, faire l’objet
de modalités d’anticipation et d’accompagnement. Une partie des gains d’efficience obtenus par le déploiement de l’intelligence artificielle et de la robotisation en santé doit être
mobilisée pour le financement de cet accompagnement, la formation – initiale et continue – des professionnels aux enjeux de l’intelligence artificielle et de la robotisation et pour le
soutien à l’émergence de nouveaux métiers dans le champ sanitaire et médico-social. » _Cette proposition – issue d’un travail approfondi de concertation avec les acteurs de santé – visait à
positionner la prise en compte de ces enjeux RH dans une optique résolument positive et anticipatrice. La diffusion de l’IA et de la robotisation peut, en effet, représenter une opportunité
pour l’amélioration de la qualité de vie au travail pour autant que ses effets RH soient suivis en continu pour, dans toute la mesure du possible, être anticipés. Depuis cinq ans, des
avancées sont intervenues en ce sens. L’actualisation de l’arrêté sur le développement professionnel continu médical en septembre 2019 a permis de faire de l’IA une orientation prioritaire
pour les programmes de formation médicale continue. Un programme pilote de sensibilisation à l’IA pour les élèves des instituts paramédicaux a été initié par la Région Auvergne-Rhône Alpes.
En outre, l’ANFH a déclenché en 2021 un programme de préparation à l’IA pour les établissements de santé de quatre régions pilotes (PACA, Auvergne-Rhône Alpes, Occitanie et Corse) permettant
de mettre en œuvre des actions de sensibilisation générales pour les professionnels hospitaliers mais aussi des formations-accompagnement thématiques sur les domaines prioritaires de
diffusion de l’IA à l’hôpital public. Ce dispositif constitue le plus important programme d’accompagnement à l’IA mis en œuvre par un organisme de formation professionnelle dans le secteur
public. Depuis quatre ans, l’Université Paris-Cité a, en outre, structuré une chaire IA pilotée par le Pr Guillaume Assie et mettant en œuvre un diplôme d’université combinant enseignements
sur l’IA, ses usages en santé et sa régulation éthique et destiné à un public associant concepteurs de systèmes, professionnels ou managers de santé. D’autres démarches de ce type se sont
structurées depuis lors comme à Montpellier ou à Dijon. En 2023, François Braun, Ministre de la Prévention et de la Santé annonçait la généralisation de la sensibilisation aux enjeux
numériques dans le cadre des formations paramédicales. Nous n’en sommes, cependant, pas encore à la généralisation de contenus sur l’intelligence artificielle dans le cadre de ce nouveau
dispositif très important. Par ailleurs, en 2024, des initiatives intéressantes ont été prises dans le domaine du management pour inscrire dans les cursus de l’EHESP et de l’EN3S une
première sensibilisation aux enjeux de l’IA dans les domaines de la santé et de l’autonomie. Il convient, enfin, naturellement de ne pas perdre de vue les besoins de plus en plus importants
en formations spécialisées sur les domaines techniques associés à l’IA : directions de système d’information, informatique médicale, métiers du data management en santé. PROPOSITION 6 :
Engager une impulsion nationale pour systématiser la sensibilisation à l’IA dans les formations initiales des acteurs de santé et d’autonomie et soutenir les démarches de gestion
prévisionnelle des emplois et des compétences portant sur l’IA en santé. La sensibilisation à l’IA pourrait être intégrée systématiquement à toutes les formations initiales paramédicales,
médicales et managériales en santé. L’éclosion de cursus de spécialités et de formations spécialisées multidisciplinaires devrait être encouragée. La formation continue à l’IA de l’ensemble
des professionnels du système de santé et du maintien en autonomie devrait être fixée comme un objectif de politique publique à cinq ans. Un tour de table sur l’IA réunissant l’ensemble des
acteurs de la formation initiale et continue sur la santé et l’autonomie pourrait être organisé sous l’égide du Conseil stratégique de l’IA en santé. * MAITRISER LES ENJEUX DE RESPONSABILITÉ
POUR LES PROFESSIONNELS DE SANTÉ ET STIMULER DE VÉRITABLES DÉMARCHES DE QUALITÉ ET GESTION DES RISQUES DANS LE RECOURS À L’IA LA MAÎTRISE DES ENJEUX DE RESPONSABILITÉS ET D’ASSURABILITÉ
POUR LES PROFESSIONNELS DE SANTÉ DANS UNE LOGIQUE DE QUALITÉ ET GESTION DES RISQUES S’AVÈRE ESSENTIELLE POUR ASSURER LA CONFIANCE DANS LE RECOURS À L’IA. La question de l’impact de
l’intelligence artificielle sur les régimes de responsabilité des professionnels fait actuellement l’objet de tous les fantasmes. Pour répondre à la révolution technologique, il faudrait
d’urgence mettre en place un cadre autonome de responsabilité des robots ou de l’intelligence artificielle. Sur cette question comme sur d’autres enjeux associés à l’intelligence
artificielle en santé, il est, en réalité, surtout important de prendre un peu de recul pour mesurer la portée exacte des évolutions en cours. En réalité, l’appréhension par le droit de
l’impact de l’action des machines – et même des robots – sur notre santé ne constitue pas réellement une question juridique nouvelle et trouve en bonne partie sa réponse dans le cadre des
principes classiques de la responsabilité du fait des choses prévus par le Code civil. Ces règles générales se complètent de régimes spéciaux de responsabilité dont celui relatif aux
produits défectueux, issu d’une directive communautaire du 25 juillet 1985 transposée – tardivement – dans notre droit par une loi du 19 mai 1998. Dans ce régime, en cas de dysfonctionnement
du système d’IA, la charge d’indemniser associés à son usage se déplace sur le concepteur du dispositif. Cependant, l’apparition d’une nouvelle génération d’« IA apprenantes » peut conduire
à rendre inopérant le régime de responsabilité des produits défectueux. En effet, la notion de risque de développement constitue un motif d’exonération de responsabilité. Il s’agit d’un
risque découlant de produits défectueux que l’on ne pouvait déterminer au moment de la conception du produit, au vu de l’état des connaissances scientifiques et techniques[81]. Nous
pourrions tout à fait être dans cette situation dans le cas de dommages causés par des développements « autogénérés » par l’IA au-delà de sa programmation initiale, à partir d’un
raisonnement par inférence. Les premières applications pratiques d’IA génératives dans le domaine de la santé ont montré que ces possibilités de dommages n’étaient pas du tout théoriques et
sans doute appelées à se développer de façon significative. Cette évolution appelle donc, en premier lieu, une réponse sur le terrain du cadre juridique applicable, ce qui est précisément
l’objet du projet en cours de modification de la directive relative à la responsabilité du fait des produits défectueux. L’ACTUALISATION EN COURS DE LA DIRECTIVE SUR LA RESPONSABILITÉ DU
FAIT DES PRODUITS DÉFECTUEUX L’apport principal de l’actualisation de la directive[82] est d’incorporer une nouvelle catégorie, celle des « produits numériques », et notamment l’intelligence
artificielle. Cette directive fait intervenir une nouvelle notion, « l’interconnexion des produits », pour mieux prendre en considération le développement des nouvelles technologies. Ainsi,
la défectuosité d’un produit peut dépendre de la défectuosité d’un autre produit interconnecté[83] (par exemple, Un DM qui dépendrait des résultats d’un IoT pour fonctionner)_. _Pour
autant, la directive ne s’applique pas aux logiciels gratuits en open source qui ont été développés ou fournis en dehors d’une activité commerciale[84]. L’actualisation de la directive a
conduit à une actualisation de l’engagement de la responsabilité des opérateurs économiques de la chaîne de distribution des produits. La responsabilité des concepteurs des IA pourrait
difficilement être mise en cause, particulièrement celles des concepteurs d’ « IA apprenante ». Cette difficulté résulte de deux facteurs, le premier est inhérent à la complexité technique
et scientifique de l’IA, et le second tient à la notion de risque de développement permettant aux opérateurs économiques de s’exonérer de leur responsabilité. Concernant la complexité
technique et scientifique des système d’IA, le législateur a prévu un allégement de la charge de la preuve en prévoyant un mécanisme de divulgation des preuves[85] et en donnant la
possibilité aux juridictions de présumer la défectuosité, le lien de causalité ou les deux en prenant en considération les circonstances de l’affaire (ces circonstances sont notamment, la
difficulté excessive due à la complexité technique et scientifique) et en démontrant uniquement la plausibilité de la défectuosité, le lien de causalité ou les deux[86]. De surcroît, le
législateur a également prévu un mécanisme pour tempérer la notion de « risque de développement ». En effet, le législateur européen a laissé la faculté aux États membres de prévoir une
dérogation au sein de leur système juridique pour maintenir la responsabilité des opérateurs économiques, et ce, malgré le risque de développement[87]. Cette mesure devra être limitée ou
spécifiée à une catégorie de produit ; justifiée par un objectif d’intérêt public ; et proportionnée dans la mesure où ils sont propres à assurer la réalisation des objectifs poursuivis et
n’excèdent pas ce qui est nécessaire pour atteindre ces objectifs. Une diffusion durable dans un cadre de sécurité juridique de l’IA pour les professionnels, les patients et les
établissements de santé implique, par ailleurs, de réfléchir sur le fond aux enjeux de l’assurabilité du recours à ces systèmes d’intelligence artificielle dans les domaines de la santé et
de l’autonomie. A ce stade, en écho à la question plus large qui vient d’être évoquée pour les régimes de responsabilité, nous ne constatons pas, à ce stade, de déstabilisation associée à la
diffusion de l’IA en santé des mécanismes de l’assurance des professionnels et des établissements. Les questions potentielles à traiter à moyen terme sont, cependant, nombreuses et
sensibles et notamment la perspective de mise en cause de la responsabilité d’un professionnel ou d’un établissement de santé n’ayant pas utilisé un système d’IA qui se serait
progressivement imposé comme un _gold standard _dans le domaine médical concerné. UNE FAÇON PRAGMATIQUE D’ANTICIPER CES ENJEUX CONSISTE À APPRÉHENDER LE SUJET DANS UNE LOGIQUE PROACTIVE DE
QUALITÉ ET DE GESTION DES RISQUES. C’est le sens des travaux conduits au plan européen sous l’égide de RELYENS, mutuelle issue du secteur hospitalier français et devenue le premier assureur
européen des établissements de santé : l’intégration de programmes de qualité et de gestion des risques autour de l’IA en santé est ici associée à une démarche de transformation du métier de
l’assurance vers le management des risques[88]. D’un point de vue opérationnel, à l’échelle des structures de santé, la formule du Collège de Garantie Humaine peut être adaptée afin de
créer les conditions de cette politique émergente de qualité et gestion des risques autour de l’intelligence artificielle. C’est le sens des initiatives engagées par le Groupe hospitalier
Saint-Joseph à Paris et le CHU de Toulouse. DÉPLOYER UNE POLITIQUE DE QUALITÉ ET GESTION DES RISQUES AUTOUR DE L’USAGE DE L’IA EN SANTÉ : LES EXEMPLES DES COLLÈGES DE GARANTIE HUMAINE DE
L’HÔPITAL SAINT-JOSEPH À PARIS ET DU CHU DE TOULOUSE L’intégration de l’intelligence artificielle au sein des hôpitaux représente une perspective d’avancée majeure dans l’accès aux soins et
la pratique clinique. Cette intégration nécessite néanmoins la structuration d’une stratégie de déploiement opérationnelle, ainsi qu’une gouvernance effective à l’échelle de l’établissement.
Le contexte européen d’adoption du Règlement sur l’IA (_AI Act_) implique également pour les établissements de santé, actuels et futurs déployeurs de ces solutions, d’assurer la conformité
de l’utilisation de ces systèmes, notamment par un contrôle humain effectif de toutes les solutions utilisées. Cette obligation de contrôle humain peut être respectée par la création de «
Collèges de Garantie Humaine » à l’échelle d’un établissement de santé, visant à s’appuyer sur les instances préexistantes afin d’établir un dialogue partagé autour des outils et projets
d’IA de l’établissement. L’article 26 du Règlement, qui concerne les obligations des déployeurs de systèmes d’IA qui utilisent les ressources fournies par les fournisseurs pour assurer la
conformité́ du système et son bon fonctionnement après la mise en service ou la mise sur le marché́ du système, devront prendre les mesures techniques et organisationnelles appropriées afin
de garantir que le système est utilisé conformément à sa finalité, et s’assurer que le contrôle humain est confié à des personnes physiques ayant les compétences, la formation, l’autorité et
le soutien nécessaires à cette fin. En ce sens, les collèges de Garantie Humaine permettent le suivi de toutes les solutions utilisées permettra d’assurer le respect de cet article, mais
également d’établir des standards éthiques d’intégration de l’IA dans l’établissement, et de faire remonter des problématiques spécifiques afin de faciliter la surveillance des systèmes
après leur déploiement. C’est le sens de la démarche initiée par Ethik-IA avec l’Hôpital Saint Joseph de Paris (GHPSJ). Cette démarche GHPSJ – Ethik-IA s’est initiée par la sélection de
trois systèmes d’IA déjà déployées au sein de l’établissement : – Une solution de scoring des prescriptions (pharmacie) ; – Une solution d’aide au diagnostic radiographique des fractures ; –
Une solution d’aide à la facturation aux urgences Un groupe de travail a été créé afin d’élaborer une grille d’analyse à partir de ces trois solutions ayant des finalités différentes, afin
de créer un outil permettant le suivi de toutes les solutions utilisées au sein de l’établissement. Cette grille s’articule autour des notions de sécurité, d’éthique, de bénéfice
d’utilisation, d’information du patient et de procédures alternatives. Une démarche du même ordre est actuellement en cours de construction au sein du CHU de Toulouse, dans le cadre de la
démarche d’accompagnement à l’intelligence artificielle lancé par l’ANFH. L’objectif global de ces collèges est d’intégrer le déploiement de l’IA dans la politique plus globale de qualité et
gestion des risques des établissements de santé, et d’intégrer l’IA dans une démarche d’amélioration continue de qualité des soins et la sécurité des patients. Les Assises
hospitalo-universitaires de Versailles du 15 décembre 2023 ont recommandé la généralisation de ces démarches pour l’ensemble des CHU d’ici l’entrée en vigueur du règlement européen sur
l’intelligence artificielle. Ces initiatives d’établissements de santé pourraient sans doute être extrapolées en ville à l’échelle des Communautés professionnelles territoriales de santé
(CPTS) ou, plus largement, au niveau des territoires de santé en cohérence avec la reconnaissance progressive de parcours territoriaux de santé intégrant le recours à l’IA. PROPOSITION 7 :
Généraliser les démarches types collèges de garantie humaine en établissement de santé et en CPTS. L’engagement dans ces dynamiques de qualité et gestion des risques pour la diffusion de
l’IA en santé serait à intégrer et soutenir dans le cadre des indicateurs qualité des établissements de santé et des professionnels de ville. Les premières démarches pilotes de prise en
compte de cette logique de garantie humaine dans l’assurabilité des systèmes d’IA sont à encourager. * ENCOURAGER L’ÉMERGENCE DE NOUVELLES SYNERGIES ENTRE PROFESSIONNELS DANS LE RECOURS À
L’IA DANS CE CONTEXTE DE RÉVOLUTION TECHNOLOGIQUE, IL NE FAUT PAS CRAINDRE LA DISPARITION DES MÉDECINS, ET PLUS GÉNÉRALEMENT DES SOIGNANTS. AU CONTRAIRE, C’EST BIEN UNE POSSIBILITÉ MAJEURE
DE SIMPLIFICATION DES CONDITIONS D’EXERCICE ET D’AMÉLIORATION DE LA QUALITÉ DE VIE AU TRAVAIL QU’IL FAUT SAISIR. Dans ce contexte, le rôle du médecin non seulement n’est pas menacé mais il
est appelé à s’élargir significativement. Il a vocation à se positionner de plus en plus en premier agent d’accès à l’IA de spécialité, sous le contrôle humain des spécialistes concernés, en
temps réel ou en différé dans le cadre de la nouvelle activité en pleine émergence de télémédecine de garantie humaine de l’IA. Par ailleurs, LE MOUVEMENT DE DIFFUSION DE L’IA EN SANTÉ
ENTRE EN SYNERGIE AVEC LA VOLONTÉ AFFICHÉE PAR LES POUVOIRS PUBLICS D’ÉTENDRE LES COMPÉTENCES SUSCEPTIBLES D’ÊTRE DÉVOLUES AUX PHARMACIENS ET AUX PROFESSIONNELS PARAMÉDICAUX. Au Portugal,
l’intelligence artificielle de reconnaissance d’image en dermatologie est ainsi d’ores et déjà utilisée en première ligne par les infirmiers à domicile mobilisant un outil d’IA sur
smartphone dans le cadre d’un protocole faisant intervenir en deuxième étape un contrôle à distance par un dermatologue. Ces interventions articulées entre professionnels paramédicaux et
médicaux ouvrent également des opportunités très significatives pour RENOUVELER LES CONDITIONS DU MAINTIEN EN AUTONOMIE ET DE LA PRÉVENTION EN DIRECTION DES PERSONNES LES PLUS VULNÉRABLES.
PROPOSITION 8 : Initier d’ici 2026 deux premiers parcours de recours à l’IA combinant les interventions des professionnels paramédicaux et médicaux en dermatologie et dans le domaine du
maintien en autonomie à domicile. Ces parcours gagneraient à s’appuyer sur un portail de confiance pour l’accès à ces outils en ville ou à domicile sous contrôle humain des professionnels de
santé. Par ailleurs, LA MISE EN ŒUVRE DE L’OBLIGATION DE CONTRÔLE HUMAIN DE L’IA EN VIE RÉELLE OUVRE LA VOIE À L’APPARITION DE PRATIQUES DE TÉLÉMÉDECINE DE GARANTIE HUMAINE DE
L’INTELLIGENCE ARTIFICIELLE. En radiologie, MEDIN+ s’est ainsi positionné, en partenariat avec Ethik-IA, en avance de phase sur la spécialisation de ses professionnels pour intervenir dans
le cadre de protocoles de supervision humaine de l’IA pour permettre un accès renforcé aux soins combiné à un contrôle asynchrone de spécialiste, comme dans le cas du recours à
l’intelligence artificielle d’interprétation des images de traumatologie aux urgences. Ces configurations permettent de développer de nouvelles modalités d’accessibilité aux soins en
combinant intervention présentielle d’un professionnel de santé en première ligne, mobilisation de l’innovation en IA et contrôle à distance du spécialiste. La création de la confiance
autour de ce type d’organisation implique naturellement un point de vigilance quant au mouvement en cours de financiarisation de certains acteurs de téléradiologie. PROPOSITION 9 : Soutenir
l’innovation organisationnelle ouverte par la télémédecine et la téléradiologie de garantie humaine de l’IA qui permet de faciliter l’accès au diagnostic de spécialité pour le patient tout
en mettant en place un protocole rigoureux et traçable de contrôle humain par les spécialistes. * POSITIONNER FORTEMENT LA FRANCE ET L’EUROPE SUR L’ENJEU DE LA NORMALISATION DE L’IA EN
SANTÉ Cette compétition mondialisée autour de l’IA en santé implique de relever, outre les défis de l’innovation technologique et de la régulation positive, celui de la normalisation
européenne et internationale. En effet, cette vision ouverte d’une IA santé préservant l’humain au cœur d’un système de santé solidaire implique de porter également cette vision dans le
cadre de ces travaux techniques qui définiront les modalités internationales de diffusion des technologies. Les premiers travaux menés avec l’AFNOR, les acteurs industriels et les
représentants des patients montrent à quel point ces enjeux sont décisifs pour la compétitivité de la France et de l’Europe sur ces sujets et pour maintenir dans un contexte mondial une
attention aux enjeux éthiques de l’intelligence artificielle. UN PREMIER EXEMPLE DE PROJET DE NORMALISATION SUR L’IA EN SANTÉ : L’AFNOR-SPEC « GARANTIE HUMAINE DE L’IA » La démarche initiée
par Ethik-IA avec l’AFNOR en 2023, matérialisée par l’AFNOR-SPEC n°2213 « Garantie Humaine des systèmes fondés sur l’intelligence artificielle en santé » publiée en accès libre le 31 mai
2024, propose des premiers éléments de réponse méthodologiques à la question du contrôle humain effectif prévu par l’AI Act pour les fournisseurs de systèmes d’IA en santé (concepteurs). Ce
document a été construit dans le cadre d’un groupe de travail diversifié, incluant notamment les experts règlementaires du SNITEM et du LEEM, mais aussi le Digital Medical Hub, avec lequel
Ethik-IA a lancé le premier label de Garantie Humaine de l’IA le 1er février 2022, ou encore l’UFSBD, partenaire pilote d’Ethik-IA en Garantie Humaine dans le domaine des soins
bucco-dentaires. Ce document décrit la démarche méthodologique pouvant être mise en œuvre par les concepteurs pour assurer une Garantie Humaine effective de leur système, initiée par
l’identification des risques spécifiques à la solution et son contexte d’utilisation, puis la création de collèges de Garantie Humaine spécifiques à un système d’IA en santé, incluant
notamment la composition du collège, les critères d’analyse pertinents de leur solution, l’organisation des réunions du collège ou encore la traçabilité et l’auditabilité du dispositif. Ce
document a pour objectif de s’axer sur l’exigence de contrôle humain pour les systèmes d’IA à haut risque prévue par l’article 14 de l’AI Act, mais aussi d’apporter des premiers éléments de
réflexion sectoriels à la normalisation de cette exigence prévue par le Règlement, qui s’appliquera à tous les secteurs d’utilisation de l’IA au sein de l’Union européenne. PROPOSITION 10 :
Soutenir l’engagement des acteurs français dans la construction du cadre de normalisation européenne et internationale pour l’intelligence artificielle en santé et en autonomie.
Bibliographie I. OUVRAGES _Bibault, Jean-Emmanuel. (2023). 2041: L’odyssée de la médecine. Éditions Équateur ; _ _Jérôme Marchand-Arvier et al. (2023). Rapport sur les systèmes d’IA
générative en santé._ II. MONOGRAPHIES Djeddi et al., Advancing drug–target interaction prediction: a comprehensive graph-based approach integrating knowledge graph embedding and ProtBERT
pretraining, BMC Bioinformatics (2023), 24, 488 (2023), https://doi.org/10.1186/s12859–023–05593–6 ; Faqar-Uz-Zaman S.F. et al., (2021), “Study protocol for a prospective, double-blinded,
observational study investigating the diagnostic accuracy of an app-based diagnostic health care application in an emergency room setting: the eRadaR trial”, British Medical Journal Open,
11:e041396 ; _McDuff, D., Schaekermann, M., Tu, T., Palepu, A., Wang, A., Garrison, J., … __& Natarajan, V. (2023). Towards Accurate Differential Diagnosis with Large Language Models.
arXiv preprint arXiv:2312.00164 ; _ TU, T.ET AL. (2024) « Towards Conversational Diagnostic AI » ; OLAWADE D. B., O. J. WADA, A. C. DAVID-OLAWADE, E. KUNONGA, O. ABAIRE, ET J. LING (2023) «
Using artificial intelligence to improve public health: a narrative review » _Front Public Health ; _ N. AGARWAL, A. MOEHRING, P. RAJPURKAR, ET T. SALZ (2023), « Combining Human Expertise
with Artificial Intelligence: Experimental Evidence from Radiology », Working paper. III. RAPPORTS OFFICIELS _Académie Nationale de Médecine. (2023). Rapport-Systèmes d’IA générative en
santé ;_ Commission de l’intelligence artificielle, « IA : Notre ambition pour la France », 2024 ; _Healthcare Data Institute. (2024). Rapport sur l’intelligence artificielle en santé ; _
PWC, « Study on eHealth interoperability of Health Data and Artificial Intelligence for Health and Care in European Union”, Lot 2 : Artificial Intelligence for Health and care in the UE,
_Final_ _Country Factsheets_, 2021 ; PWC, « Study on eHealth interoperability of Health Data and Artificial Intelligence for Health and Care in European Union”, Lot 2 : Artificial
Intelligence for Health and care in the UE, _Final Study Report_, 2021 ; Rapport de l’Académie Nationale de Médecine du 5 mars 2024 ; VILLANI C., « Donner un sens à l’intelligence
artificielle – pour une stratégie nationale et européenne », _Rapport mars 2018._ IV. AVIS ET RECOMMANDATIONS _Comité consultatif national d’éthique, Contribution à la révision de la loi
de bioéthique, Avis n° 129, 25 septembre 2018 ; _ _Comité Consultatif National d’Éthique (CCNE), & Comité National Pilote d’Éthique du Numérique (CNPEN). . Avis 141 du CCNE et 4 du
CNPEN – Diagnostic Médical et Intelligence Artificielle : Enjeux Éthiques ;! _ CNPEN, Avis n° 3 du 15 septembre 2021, Agents conversationnels : enjeux d’éthique ; HAS, Avis de la Commission
Nationale d’Evaluation des Dispositifs Médicaux et des Technologies de Santé (CNEDiMTS) du 28 janvier 2020 ; _Think Tank Économie Santé. (2024). Reco 2024 – IA en santé. . Think Tank
Économie Santé._ V. ARTICLES ALLISONE, « IA & santé : Où en sont la Chine, les États-Unis et l’Europe », 12 mars 2024 ; _Ayers, J. W., Poliak, A., Dredze, M., Leas, E. C., Zhu, Z.,
Kelley, J. B., … & Smith, D. M. (2023). Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA internal
medicine ; _ Blanc D., et al., (2020), “Artificial intelligence solution to classify pulmonary nodules on CT”, Diagnostic and Interventional Imaging, 101 ; Colling R., et al., (2019),
“Artificial intelligence in digital pathology: a roadmap to routine use in clinical practice”, The Journal of Pathology, 249: 143–50 ; Coudray N., et al., (2018), “Classification and
mutation prediction from non–small cell lung cancer histopathology images using deep learning”, Nature Medicine, 24, 1559–67 ; Van der Laak J., et al., (2021), “Deep learning in
histopathology: the path to the clinic”, Nature Medicine, 27, 775–84 ; D. et al., (2019), “End-to-end lung cancer screening with three-dimensional deep learning on low-dose chest computed
tomography“, Nature Medicine, 25, 954–61 ; _Editorial de Nature, janvier 2024 : __There are holes in EU AI Act_ ; E. Svoboda, (2020), “Deep learning delivers early detection”, Nature, 587,
S20–2 ; Esteva A., et al., (2017), “Dermatologist-level classification of skin cancer with deep neural networks”, Nature, 542 ; Fondation Jean Jaurès, « systèmes de santé : une comparaison
France/États-Unis, 15 mai 2023 ; _Gruson, D., & Grass, É. (2020). Quelle régulation positive éthique de l’intelligence artificielle en santé?. Les Tribunes de la santé, (1), 25–33 ; _
_Gruson, D. (2019). Le numérique et l’intelligence artificielle en santé: surveillance généralisée ou avancée majeure?. Les Tribunes de la santé, (2), 23–29 ;_ _Gruson, D. (2022, August).
Pilotage par les données et l’IA en santé: faire vivre l’écosystème de la « Garantie humaine » MedTech et HealthTech!. In Annales des Mines-Réalités industrielles (No. 3, pp. 24–26) ; _
_Gruson, D. (2022). Systèmes d’information en santé; intelligence artificielle et Garantie Humaine: une nouvelle étape historique?. Journal de Droit de la Santé et de l’Assurance Maladie,
(31) ; _ _Institut National de la Santé et de la Recherche Médicale (Inserm). (2024). Intelligence artificielle et santé ; _ _Jean-Urbain Hubau et al. (2024). Cartes de France de l’accès aux
soins. Éditions Fondation Jean-Jaurès ; _ MORLET-HAÏDARA L., « Le numérique et l’intelligence artificielle au service des publics âgés : des opportunités soulevant des problématiques
éthiques et juridiques », Journal du Droit de la Santé et de l’Assurance – Maladie (JDSAM), vol. 31, no. 1, 2022 ; OMS, « L’intelligence artificielle dans la recherche en santé mentale :
nouvelle étude de l’OMS sur les applications et les défis », CP 6 février 2023 ; SHEN, Y., F. E. SHAMOUT, J. R. OLIVER, ET AL. « Artificial intelligence system reduces false-positive
findings in the interpretation of breast ultrasound exams »_ Nat Commun, 21 septembre 2024 ; _ _Strong, E., DiGiammarino, A., Weng, Y., Kumar, A., Hosamani, P., Hom, J., & Chen, J. H.
(2023). Chatbot vs medical student performance on free-response clinical reasoning examinations. JAMA internal medicine, 183(9), 1028–1030 ;_ Syryk C., et al., (2020), “Accurate diagnosis of
lymphoma on whole-slide histopathology images using deep learning”, npj Digital Medicine, 3, 63 ; WANG W., “Artificial Intelligence and healthcare in China : What is the role for soft
law?”, Droit, santé et société, 2021/3 (N°3) ; ZHOU L., « L’intelligence artificielle médicale commence à accélérer l’industrialisation », New economics guide, juillet 2017. VI. LÉGISLATIONS
_Règlement (UE) 2024/… DU PARLEMENT EUROPÉEN ET DU CONSEIL du… établissant des règles harmonisées concernant l’intelligence artificielle _[et modifiant les règlements (CE) n°300/2008, (UE)
n°167/2013, (UE) n°168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (législation sur l’intelligence artificielle)], 6
mars 2024 ; _European Parliament legislative resolution of 12 March 2024 on the proposal for a directive of the European Parliament and of the Council on liability for defective products
_(COM(2022)0495 – C9–0322/2022 – 2022/0302(COD)). ------------------------- [1] Commission de l’intelligence artificielle, _IA : notre ambition pour la France_, mars 2024
https://www.info.gouv.fr/upload/media/content/0001/09/4d3cc456dd2f5b9d79ee75feea63b47f10d75158.pdf [2] Co-fondateur du groupe Intelligence Artificielle au MIT. « Steps toward artificial
intelligence », _Proceedings of the IRE_, janvier 1961. [3] Cette dernière est également marquée par des avancées très rapides comme dans le champ urologique mais avec, à ce stade, moins
d’enjeux de substitution de la décision de la machine à celle de l’Humain ; les procédés utilisés reviennent en pratique à « augmenter » le geste du chirurgien, celui restant maître de la
décision elle-même. [4] Think Tank Economie Santé, _Recommandation 2024 : cinq mesures pour que la révolution de l’IA renforce réellement le système de santé_
https://www.lesechosleparisien-evenements.com/wp-content/uploads/2024/03/LA-RECO-2024-BD-BAT-page-a-page.pdf [5] Chaire Santé Sciences Po, _Enjeux de l’intelligence artificielle en santé_,
février 2023 https://www.sciencespo.fr/chaire-sante/sites/sciencespo.fr.chaire-sante/files/Enjeux%20de%20l%27IA%20en%20sante%CC%81%2026.05.pdf [6] Healthcare Data Institute, _ Dix
recommandations pour faire de l’IA en santé une réalité_, janvier 2024 https://healthcaredatainstitute.com/ [7] https://www.health-data-hub.fr/aap-eds [8]
https://5juilletdatatransformeurs.com/ [9] PWC, « Study on eHealth Interoperability of Health Data and Artificial Intelligence for Health and Care in European Union », Lot 2 : Artificial
Intelligence for health and care in the UE, Final Study Report, 2021, p.25 [10] PWC, « Study on eHealth Interoperability of Health Data and Artificial Intelligence for Health and Care in
European Union », Lot 2 : Artificial Intelligence for health and care in the UE, Country Factsheets, 2021, p.63 [11] _Ibid., _ p. 34 [12] _ibid._, p. 35 [13] _Food and Drug Administration_.
[14]https://www.gehealthcare.com/about/newsroom/press-releases/tampa-general-hospital-and-ge-healthcares-carecomm-saves-40-million-cuts-20000 [15]
https://www.shiftmed.com/blog/impact-of-ai-in-healthcare-administration/ [16] BLONS. E, Glossaire, « L’IA au cœur de l’entreprise », 2023, p. 173 à 178 : _Un jumeau numérique est une
représentation virtuelle d’une entité ou d’un processus du monde réel. Il est composé des trois éléments suivants : une entité physique dans l’espace réel ; le jumeau numérique sous forme de
logiciel ; et les données qui relient les deux premiers éléments._ [17] Zhou luhan, « l’intelligence artificielle médicale commence à accélérer l’industrialisation », New economics guide,
juillet 2017, pp. 18–22. [18] Baidu, Alibaba, Tencent, Xunfei [19] WANG Wei, « Artificial Intelligence and healthcare in china : What is the rôle for sort law ? », Droit, santé et société,
2021/3 (N°3), p. 29 à 37 [20] Allisone, « IA & santé : Où en sont la Chine, les États-Unis et l’Europe », 12 mars 2024 [21] Le Comité national pilote d’éthique du numérique créé en
décembre 2019 a été pérennisé en Comité Consultatif National d’Éthique du Numérique (C.C.N.E. du Numérique) le 27 mai 2024
https://cabinetpm.hosting.augure.com/Augure_CCNE/r/ContenuEnLigne/Download?id=1BE2DCC6-AAF7–414F-AF5F-C8A1EB2FFCE1&filename=CCNE_CP_20240527_Creation-CCNE-Numerique.pdf [22] L’avis
commun 141 CCNE/Avis 4 CNPEN du Comité Consultatif National d’Ethique adopté en novembre 2022 _« __fait suite à une saisine du Comité national pilote d’éthique du numérique (CNPEN) par le
Premier ministre sur les enjeux d’éthique de l’utilisation de l’intelligence artificielle (IA) dans le champ du diagnostic médical, exprimée dans sa lettre de mission du 15 juillet 2019.”_
[23] _Ibid_. p.20, cf Ardila, D. et al., (2019), “End-to-end lung cancer screening with three-dimensional deep learning on low-dose chest computed tomography“, Nature Medicine, 25, 954–61 ;
Blanc D., et al., (2020), “Artificial intelligence solution to classify pulmonary nodules on CT”, Diagnostic and Interventional Imaging, 101 : 803–810. [24] _Ibid_. p.20, cf E. Svoboda,
(2020), “Deep learning delivers early detection”, Nature, 587, S20–2. [25] Le marquage « CE » figure sur la majorité des produits non alimentaires. Il matérialise l’engagement du fabricant
du produit sur sa conformité aux exigences fixées par la réglementation communautaire. Il doit être apposé avant qu’un produit ne soit mis sur le marché européen [26] l’avis commun 141
CCNE/Avis 4 CNPEN du Comité Consultatif National d’Ethique adopté en novembre 2022 p20 Esteva A., et al., (2017), “Dermatologist-level classification of skin cancer with deep neural
networks”, Nature, 542: 115–18. [27] L’avis commun 141 CCNE/Avis 4 CNPEN du Comité Consultatif National d’Ethique adopté en novembre 2022 p.23 : “Elle est établie à partir d’échantillons de
tissus ou de cellules prélevés lors d’une intervention chirurgicale, d’une endoscopie, ou lors de tout autre prélèvement, fixés sur lame de verre. Le diagnostic se fonde sur la distinction
des différents constituants de l’architecture tissulaire et cellulaire au microscope optique après coloration et marquages. Ces lames sont aujourd’hui numérisées”. [28] _Ibid_. p.23, cf
Syryk C., et al., (2020), “Accurate diagnosis of lymphoma on whole-slide histopathology images using deep learning”, npj Digital Medicine, 3, 63 ; Coudray N., et al., (2018), “Classification
and mutation prediction from non–small cell lung cancer histopathology images using deep learning”, Nature Medicine, 24, 1559–67. [29] _Ibid_. p.23, cf Colling R., et al., (2019),
“Artificial intelligence in digital pathology: a roadmap to routine use in clinical practice”, The Journal of Pathology, 249: 143–50 ; Van der Laak J., et al., (2021), “Deep learning in
histopathology: the path to the clinic”, Nature Medicine, 27, 775–84. [30] _Ibid._ p.28, Consultable au lien suivant : https://ada.com/ [31] _Ibid._ p.28,. Consultable au lien suivant :
https://www.babylonhealth.com/en-us [32] _Ibid. _p.28, D’après plusieurs études, « 40 % des diagnostics d’admission lors de la première présentation aux urgences ne concordent pas avec le
diagnostic final du patient », voir cette synthèse : Faqar-Uz-Zaman S.F. et al., (2021), “Study protocol for a prospective, double-blinded, observational study investigating the diagnostic
accuracy of an app-based diagnostic health care application in an emergency room setting: the eRadaR trial”, British Medical Journal Open, 11:e041396. [33] _Ibid. _p.29. Le capteur mesure
toutes les 5 minutes le glucose interstitiel qui est transmis au terminal mobile. Ce terminal mobile vise à piloter automatiquement la pompe à insuline, ou proposer des recommandations
àpartir des données du capteur, des données historiques du patient, de la pompe à insuline et des données rentrées par le patient », voir : HAS, Avis de la Commission Nationale d’Evaluation
des Dispositifs Médicaux et des Technologies de Santé (CNEDiMTS) du 28 janvier 2020, 45 p. [34] Le CCNE est né en 1983 après la naissance par fécondation in vitro du premier bébé français.
Le rôle du CCNE est de fournir un éclairage utile aux décideurs et au débat public sur les enjeux éthiques de ces progrès. [35]Rapport de l’Académie Nationale de Médecine du 5 mars 2024. p.9
“Le marché de la découverte de médicaments par l’IA générative de 150M$ en 2023 pourrait être multiplié par 10 dans les années à venir” [36] Intervention précoce dans la psychose : vers une
psychiatrie préventive et personnalisée : Coordonné par Pr. Marie-Odile Krebs (Université de Paris/GHU Paris/Inserm) https://www.ghu-paris.fr/fr/programme-psycare [37]
https://www.chu-toulouse.fr/ihu-toulouse-cree-son-institut-dedie-a-la-9936 [38] https://congres-jvma.fr/ [39] Dans la foulée, Hela Ghariani a été nommée, en conseil des ministres du 7 juin,
déléguée au numérique en santé. Elle est avec David Sainati, co-responsable du numérique en santé dans un fonctionnement en binôme complémentaire à la tête de la DNS. [40] _Donner un sens à
l’intelligence artificielle : pour une stratégie nationale et européenne_, Rapport remis au Premier ministre, 2018
https://www.google.fr/books/edition/Donner_un_sens_%C3%A0_l_intelligence_artific/Q7lUDwAAQBAJ?hl=fr&gbpv=1&printsec=frontcover [41] _IA : notre ambition pour la France_, rapport de
la Commission de l’intelligence artificielle remis à la Première ministre, mars 2024 https://www.info.gouv.fr/upload/media/content/0001/09/4d3cc456dd2f5b9d79ee75feea63b47f10d75158.pdf [42]
https://www.innovant.fr/2018/01/11/lintelligence-artificielle-prevenir-suicides/ [43] Commission de l’intelligence artificielle, 2.1.4 Mieux soigner grâce à l’IA : plus de temps au soin « IA
: Notre ambition pour la France », 2024, p. 81–82 [44] WONG, F., ZHENG, E.J., VALERI, J. A., et al.(2023) « Discovery of a structural class of antibiotics with explainable deep learning »
Nature. [45] OLAWADE D. B., O. J. WADA, A. C. DAVID-OLAWADE, E. KUNONGA, O. ABAIRE, ET J. LING (2023) « Using artificial intelligence to improve public health: a narrative review » _Front
Public Health_ [46] Natural language Processing [47] TU, T.ET AL. (2024) « Towards Conversational Diagnostic AI » [48] Commission de l’intelligence artificielle, 2.1.4 Mieux soigner grâce à
l’IA : plus de temps au soin « IA : Notre ambition pour la France », 2024, p. 82 [49]
https://healthcaredatainstitute.com/wp-content/uploads/2024/01/etudes-hdi-day-2023_compressed_compressed-1.pdf [50] https://sciencespo.hal.science/hal-03385740v1/file/2005-les-trois-i.pdf
[51] https://www.entreprises.gouv.fr/fr/actualites/innovation-sante-2030-plan-ambitieux-pour-industries-de-sante [52] https://sante.gouv.fr/IMG/pdf/dossier_sns_2017_vdef.pdf [53]
https://www.femtechfrance.org/ [54] https://www.unicancer.fr/wp-content/uploads/2023/11/cp-conventionunicancer2023–1.pdf [55] Pour « Continuum Soins Recherche ». [56]
https://recherche.unicancer.fr/fr/programmes/oncods/ [57] https://filiere-ia.fr/nous-connaitre/organisation/ [58] Andreas D. Lauritzen, PhD • Martin Lillholm, Ph.D. • Elsebeth Lynge, Ph.D. •
Mads Nielsen, Ph.D. •Nico Karssemeijer, PhD • Ilse Vejborg, MD, “Indicateurs précoces de l’impact de l’utilisation de l’IA dans le dépistage du cancer du sein par mammographie”, Radiology,
Vol 311, Number 3, 27 mars 2024. [59] . Perry N, Broeders M, de Wolf C, Törnberg S, Holland R, von Karsa L. European guidelines for quality assurance in breast cancer screening and
diagnosis. Fourth edition—summary document. Ann Oncol 2008;19(4):614–22. [60] Rapport de l’Académie Nationale de Médecine du 5 mars 2024. p.9 “Le marché de la découverte de médicaments par
l’IA générative de 150M$ en 2023 pourrait être multiplié par 10 dans les années à venir” [61] _Ibid. _p.9, cf Advancing drug–target interaction prediction: a comprehensive graph-based
approach integrating knowledge graph embedding and ProtBERT pretraining, Djeddi et al. BMC Bioinformatics (2023), 24, 488 (2023), https://doi.org/10.1186/s12859–023–05593–6. [62]
Livre_blanc_Données_de_santé_artificielles-250424.pdf [63] _French Clinical Research Infrastructure Network_, initiative engagée dès 2010 dans le cadre du programme d’investissements
d’avenir. [64] Colloque national _"Next generation in clinical research: __AI__, in silico and external arms, Time to make them real"
__https://www.fcrin.org/espace-media/actualites/colloque-next-generation-clinical-research-ai-silico-and-external-arms-time_ _ _ [65] Avis 129 et 141. [66]
https://www.who.int/fr/news/item/28–06–2021-who-issues-first-global-report-on-ai-in-health-and-six-guiding-principles-for-its-design-and-use [67] Mesure de la puissance de calcul. [68] En
l’absence de risques systémiques. [69] _Executive order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence_, 30 octobre 2023
https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/ [70]
Secrétaire à la santé et aux services sociaux. [71] L’ARS de Bretagne a, ainsi, déclenché dès 2022 un appel à manifestation d’intérêt mobilisant les crédits du Fonds d’intervention régional
(FIR) pour soutenir l’émergence de cas d’usage d’intelligence artificielle dans la région. [72] Cette démarche, qui se traduit par des programmes cliniques élaborés par l’ensemble des
acteurs de santé d’un territoire, a d’abord été développée au Québec. Depuis 2017, elle est au cœur de la stratégie de santé de la Fédération hospitalière de France et plus particulièrement
portée par les travaux d’Antoine MALONE. L’article 20 de la loi du 24 juillet 2019 relative à l’organisation et à la transformation du système de santé dispose ainsi que désormais, _«
l’ensemble des acteurs de santé d’un territoire est responsable de l’amélioration de la santé de la population de ce territoire ainsi que de la prise en charge optimale des patients de ce
territoire. »_ [73] Sur la plateforme ANAP des solutions d’IA en santé : https://ia.anap.fr/ [74] https://care-insight.fr/think-tank/ [75] Sur la définition de ce concept proposée par le
panel d’experts de la Commission européenne : https://health.ec.europa.eu/system/files/2019–11/2019_defining-value-vbhc_factsheet_en_0.pdf [76] CRAPS, “L’IA : un défi pour la protection
sociale », 2020 https://www.thinktankcraps.fr/lia-un-defi-pour-la-protection-sociale-2/ [77] DRIM France IA est une association loi 1901, émanation du G4, Conseil National Professionnel de
la Radiologie, qui regroupe les 4 institutions de la radiologie française (SFR, FNMR, CERF et SRH). Ces institutions représentent les 8 885 radiologues qui exercent en France (données 2019).
L’un de ses principaux objectifs est d’accompagner le développement de l’IA en radiologie en aidant les radiologues à choisir des solutions d’IA pertinentes et validées, à les installer
dans le respect des réglementations et en accompagnant la mise au point de solutions d’IA pertinentes et répondant aux besoins des radiologues français. DRIM France IA souhaite également
pouvoir tester sur des datas et les différentes solutions disponibles. La mise œuvre de la garantie humaine afin de surveiller toute dérive des outils d’IA est également un enjeu fort pour
DRIM. [78] https://www.has-sante.fr/jcms/p_3212876/fr/un-nouvel-outil-pour-l-evaluation-des-dispositifs-medicaux-embarquant-de-l-intelligence-artificielle [79] La qualification SecNumCloud
constitue ainsi un visa de sécurité délivré par l’ANSSI attribué aux prestataires de service cloud, qui atteste du niveau optimum de qualité, de sécurité et de confiance de leurs services.
[80] Institut Montaigne, _IA et emploi en santé : quoi de neuf docteur ? _https://www.institutmontaigne.org/publications/ia-et-emploi-en-sante-quoi-de-neuf-docteur [81] Pascal Oudot, _Le
Risque de développement_, Éditions universitaires de Dijon, 2005. [82] European Parliament legislative resolution of 12 March 2024 on the proposal for a directive of the European Parliament
and of the Council on liability for defective products (COM(2022)0495 – C9–0322/2022 – 2022/0302(COD)) [83]_ __Ibid., _Article 8.1.b) [84]_ __Ibid., _Article 2.2_ : This Directive does not
apply to free and open-source software that is developed or supplied outside the course of a commercial activity._ [85]_ __Ibid., _Article 9 [86]_ Ibid., _ Article 10 [87]_ Ibid., _Article
18 [88] https://www.relyens.eu/fr/relyens/relyens-innove