[dossier] Quand l’Intelligence Artificielle devient Dispositif Médical

intelligence artificielle dispositif médical
Sujet d’actualité, l’intelligence artificielle excite les utilisateurs, intéresse les fabricants, donne espoir aux patients, mobilise des missions gouvernementales et fait vendre du papier.

Et c’est vrai, l’IA commence à arriver dans le médical : des startup sont prêtes à disrupter tous azimuts et les gros fabricants de dispositifs médicaux s’associent avec les gros spécialistes de l’intelligence artificielle.

Cet article pour tenter d’y voir plus clair, avant d’affronter d’accompagner les changements.

L’article étant très long (je me demande si quelqu’un va tout lire) voici un sommaire / résumé cliquable :

1. Comment définir l’intelligence artificielle ?
Que l’on regarde du côté de l’ISO, de l’UE ou de la France les définitions tournent autour d’un logiciel réalisant des tâches associées à l’intelligence humaine

2. Comment fonctionne une IA ?
Techniquement cela va des classiques systèmes experts aux réseaux de neurones. L’IA qui nous intéresse peut apprendre à partir d’exemples dans un processus plus ou moins supervisé par l’homme.

3. L’IA va-t-elle anéantir l’humanité ?
Non.

4. L’IA peut-elle devenir dispositif médical ?
Oui, c’est même un débouché majeur, avec ses particularités dès qu’il s’agit de la valider.

5. Y a t-il des IA déjà utilisées à des fins médicales ?
Oui, surtout en analyse d’image, mais le gros est à venir.

6. Que nous réserve l’avenir ?
D’un côté : le champ des possibles, de l’autre : les freins techniques. In-fine l’IA va accompagner les professionnels de santé et devenir un aiguilleur de la connaissance médicale et le larbin du médecin pour ses tâches répétitives.

Liens
Des articles, podcasts, vidéos, rapports et fictions sur l’intelligence artificielle.

 

Et pour commencer sur une note légère, un résumé des prédictions de Laurent Alexandre*. Une réflexion qui va au-delà de l’IA : génétique, implants, transhumanisme … vivement qu’il s’intéresse à l’ordinateur quantique.
un des futurs du medical
* : urologue parti étudier la fiscalité en Belgique LR est surtout connu pour ses ouvrages de SF post-apocalyptique et sa passion du stand-up. 

Définir l’intelligence artificielle

L’IA n’est pas un concept né au XXIe siècle, on en parle depuis les années 50, depuis que les machines arrivent à réaliser des tâches qui ne peuvent être faites sans un minimum d’intelligence, depuis les débuts du numérique.

🌐 L’IA vue par l’ISO

L’IA fut définie par l’ISO fin super nintendo / début tatoo (au début des 90’s) dans la série de norme ISO IEC 2382 définissant le Vocabulaire utilisé en informatique (ici).

Afnor édition n’ayant pas jugé le secteur rentable la norme n’existe pas en Français, je vous traduis la définition de l’IEC 2382-1:1993 :

Capacité d’une unité fonctionnelle à réaliser des tâches qui sont généralement associées à l’intelligence humaine, comme raisonner et apprendre

Mots clés : unité fonctionnelle, tâches, intelligence humaine. (une unité fonctionnelle étant une combinaison de soft et de hardware)

D’autres définitions existent dans d’autres normes, un best of donnerait ceci :

Domaine interdisciplinaire, généralement considéré comme une branche de l’informatique, mêlant logiciel et/ou hardware et étudiant des modèles et des systèmes de traitement de données pour l’exécution de fonctions normalement associées à l’intelligence humaine, telles que le raisonnement, l’apprentissage et l’auto amélioration.

Mots clés : informatique, modèles, traitement de données, exécution de fonctions, associé à l’intelligence humaine, auto amélioration

🇪🇺 L’IA vue par L’Europe

Le CESE (Comité Économique et Social Européen) a un avis sur la question. Deux choses notables :

  • Le CESE reconnait l’absence de définition d’IA
  • Le médical n’est pas listé dans les « Onze domaines dans lesquels l’IA soulève des enjeux de société » mais il y a la guerre et généralement le médical n’est pas loin derrière.

Un contour de l’intelligence artificielle est tout de même dessiné :

Englobe un grand nombre de domaines, tels que :
– l’informatique cognitive (cognitive computing: algorithmes qui raisonnent et apprennent à un niveau supérieur, c’est-à-dire plus humain),
– l’apprentissage automatique (machine learning: algorithmes qui apprennent de manière autonome à réaliser des tâches),
– l’intelligence augmentée (augmented intelligence: coopération entre l’homme et la machine) et
– la robotique intelligente (IA intégrée dans des robots).
L’objectif principal de la recherche et du développement en matière d’IA est toutefois d’automatiser les comportements intelligents, entre autres la capacité de raisonner 🤔, de collecter des informations, de planifier, d’apprendre, de communiquer, de manipuler, de signaler et même de créer 😵, de rêver 😂 et de percevoir.

Mots clés : informatique, automatiser, comportements intelligents

🇫🇷 L’IA vue par le France

Une définition datée fin master system / début megadrive (publiée au JO du 16 septembre 1989) :

Discipline relative au traitement par l’informatique des connaissances et du raisonnement.

Mots clés : informatique, connaissance, raisonnement

🤘🏻 Définition personnelle

Un logiciel qui après un gros apprentissage interprète des données là où jusqu’à présent il fallait payer un type pour faire le boulot.

Mots clés : logiciel, gros apprentissage, type, boulot

Principes de fonctionnement des IA

Précision : je ne suis pas spécialiste, n’hésitez pas à réagir.

Je vais illustrer avec l’interprétation d’une image de radiologie et un cas hyper sexy : la détection de micro nodules pulmonaires.

intelligence artificielle medicale

Les systèmes experts

systeme expert IA

C’est ce que l’on fait depuis les débuts de l’informatique : tout est codé par les développeurs. Dans le cas de la détection du nodule l’image est lue, les poumons sont identifiés, les nodules sont recherchés par détection et analyse des petites taches blanches. L’approche est déterministe : en partant d’une compréhension et d’une modélisation du problème.

  • 👍🏻 : le comportement de l’IA est maitrisé ; les développeurs peuvent travailler les algorithmes pour tenir compte de la complexité des cas
  • 👎🏻 : le soft ne sait faire que ça et il faut une armée d’ingénieurs pour mettre au point les algos, modèles et outils mathématiques nécessaires
  • 💡 : Plutôt que de payer des ingénieurs à faire des maths, payons des ingénieurs à faire des logiciels qui inventent leurs propres critères d’analyse à force d’entrainement

On parle alors de machine learning.

Le machine learning

Une technique elle aussi ancienne mais qui a pu se développer dans les années 90. L’idée est de partir d’algorithmes prédisposés pour certaines tâches et de les spécialiser en les entrainant sur des données qui ont déjà été analysées par un être humain.

machine learning

Avec notre nodule :

  • Au départ  l’IA est un gros tas d’algos spécialisés dans l’analyse d’image mais elle n’a jamais entendu parler de nodule, heureusement : on peut la régler très finement (les paramètres N, θ , ɛ, … sur le schéma)
  • Essais n°1 : on donne une image en entrée, l’IA la traite avec ses réglages initiaux et indique en une position du nodule complètement dans les choux. Une erreur entre le résultat attendu et la prédiction de la machine est calculée.
  • Essais n°2 : Les réglages de l’IA sont un poil modifiés => nouvel essai => nouvelle erreur
  • Essais n°3 : on commence à avoir une historique de l’influence des réglages, on peut analyser les tendances pour affiner les paramètres de l’IA
  • … les essais s’enchaînent, toujours en modifiant l’IA pour minimiser les erreurs, en fonction de l’expérience acquise
  • Essais N°beaucoup => l’erreur est satisfaisante, fin de l’apprentissage sur une image.

Plus qu’à répéter sur des dizaines de milliers de cas.

Notez qu’il n’y a pas de magie, cela reste des maths : de la minimisation de coût de fonction, à coup de gradients d’altitude.

  • 👍🏻 : on part d’un code généraliste et la machine l’adapte toute seule au contexte
  • 👎🏻 : demande beaucoup de données pour l’apprentissage et des architectures logicielles spécialisées, ainsi qu’énormément de puissance de calcul
  • 💡 : au lieu de faire la leçon à du code, si nous implémentation une sorte de cerveau électronique capable de se construire en s’entrainant ?

C’est là que les réseaux de neurones interviennent.

Réseaux de neurones

Le neurone artificiel

« Neurone » parce que le principe est inspiré du cerveau organique : on sort complétement des registres et jeux d’instruction des processeurs classiques.
fonctionnement neurone artificiel

Un neurone est une fonction informatique élémentaire dont les sorties dépendent des entrées de manière très simple : une sortie est active en fonction de la somme pondérée des entrées, comparée à un seuil.

Exemple avec un cas très très basique : le neurone d’un auditeur du CTJ :
neurone auditeur

Les pondérations permettent d’accorder une importance spécifique à chaque entrée, le seuil permet de prendre une décision.

Les réseaux de neurones

Dès lors que l’on met plusieurs couches de neurones (les sorties des uns dans les entrées des autres, en tout bien tout honneur) on parle de réseau de neurones :
reseau de neurones

Un réseau simple aura 3 couches :

  • Des neurones d’entrée pour recevoir les informations de l’image : les niveaux de gris des pixels
  • Des neurones secondaires qui permettent de détecter les caractéristiques essentielles du contexte : des ronds, des zones sombres, des ovales, …
  • Des neurones de sortie dont l’état de reflète une conceptualisation : actif s’il trouve un rond blanc dans un ovale noir; inactif sinon.

Vous n’imaginez pas tout ce que l’on peut faire avec seulement trois couches, comme de l’analyse de l’ADN par électrophorèse : 1206 neurones d’entrée (pour lire les données : des marqueurs), 100 neurones intermédiaires et 5 neurones de sortie (la classification se faisant selon 5 paramètres).

 

Vous l’aurez deviné : les pondérations et seuils des neurones sont découverts pendant une phase de machine learning.

Et que ce passe-t-il si l’on se met à entrainer des réseaux de neurones plus profonds ? Le deep learning.

Deep learning

deep learning

Un réseau avec plus de couches est évidement plus puissant et peut avantageusement remplacer des algorithmes codés à la main. Ce sont les récents progrès en microélectronique et la disponibilité de données en masse (dont votre compte i-whaztsgook) qui lui ont permis d’émerger.

Ci dessous une représentation plus détaillée de l’apprentissage et de ses deux leviers :

  1. La profondeur du réseau
  2. La quantité de données utilisées pour l’apprentissage
    IA apprentissage peu profond

Les réseaux de neurones reposent sur une approche entièrement probabiliste, qui apprend tout des données qu’on lui fourni, sans la moindre conceptualisation du problème.

Les ingénieurs ont toutefois recours à des architectures spécialisées comme les réseaux convolutifs ( une analyse des images par petits paquets de pixels, comme le font vos yeux) ou les réseaux récurrents (avec un effet « effet mémoire » de la data sur les neurones, non sans rappeler l’hippocampe du cerveau : notre RAM qui influence nos réactions et décisions).

Apprentissage non supervisé

Illustré ici avec un réseau de neurones profond, l’IA n’est plus entrainée à reproduire des résultats pré-établis, elle découvre seule les caractéristiques qui font le contexte : des poumons, des nodules.
apprentissage non supervise

C’est cette IA qui dans nos fantasmes va :

  1. se connecter à internet
  2. faire le compte de toutes les saletés commises par l’être humain
  3. nous exterminer en retournant nos grille-pains connectés contre nous

Sauf si elle est plus Asimov que James Cameron mais c’est une histoire de goûts.

Les autres catégories d’IA

Il y-a autant de catégories que de gens qui ont un avis sur le sujet. On retrouve assez souvent les paires IA étroite/large et faible/forte.

  • IA étroite : remplace l’humain pour un nombre fini de tâches (on est dedans)
  • IA large : sait faire tout ce qu’un humain sait faire, même des jeux de mots laids qui font les gens bêtes

Plusieurs visions des IA faibles et fortes, la plus courante :

  • IA faible : l’IA simule l’intelligence sans rien biter à ce qu’elle fait (on est dedans)
  • IA forte : l’IA est capable d’éprouver des sentiments, d’avoir une conscience et de beugler alleeeeez l’O-M-eu

Beaucoup d’excitation sur fond de comparaison entre le nombre de neurones du cerveau humain et les progrès de l’intégration en micro-électronique selon la loi de Moore (l’intégration dans les puces double tous les 18 mois, jusqu’à des problèmes bêtement quantiques que l’on observe en ce moment).

Mais en terme de FLOPs (opérations par secondes) il y a encore un rapport monstrueux entre un ordinateur surpuissant et un Laurent Wauquiez lambda. Et ces considérations purement perf techniques ne s’embêtent pas avec la complexité de l’architecture du cerveau humain.

Une autre distinction IA faible / forte et qui a ma préférence :

  • IA faible : une IA spécialisée, qui ne fait que ce pour quoi on l’a dressé
  • IA forte : une IA qui découvre toute seule les tâches qu’elle doit réaliser

💣 L’IA va-t-elle détruire le monde ?

Bah non, ou alors une IA faible qui aurait était créée pour ça ou très mal dressée et que l’on aurait connecté à notre arsenal nucléaire pour rigoler.
Une IA forte n‘aurait aucun intérêt à anéantir l’humanité, il faut se mettre dans sa peau et chercher à comprendre le but de sa « vie » : avaler de la données et la comprendre de mieux en mieux.

Elle ne va pas se priver de sa meilleure source d’info.

 

Mais je réalise que je n’ai pas encore cité Laurent Alexandre :

… guerre entre cerveaux de silicium et biologiques … une IA forte sera forcément hostile… envoyer notre jeunesse au casse-pipe… les gens avec mois de 150 de QI ne serviront à rien… l’IA signe la mort du parlement… rendre nos enfants complémentaires de l’IA … Il devrait y avoir de nombreuses civilisations extraterrestres [blablabla] elles ont été détruites par l’IA …

Statut dispositif médical et certification d’une IA

Il en va de l’IA comme des autres technos : un dispositif est un dispositif médical en fonction la finalité d’utilisation revendiquée par le fabricant.

🎓 Définition de dispositif médical appliquée à l’IA

La définition de DM est établie par le règlement (UE) 2017/745, elle fera tomber dans le DM toute IA destinée à :

  une maladie

🤢

une blessure,

un handicap

une structure/fonct. anatomique,

un proces./état physio/patho

👃👂

 la conception

🤰

Diagnostiquer ✔️ ✔️    
Prévenir ✔️      
Contrôler ✔️ ✔️    
Prédire ✔️      
Pronostiquer ✔️      
Traiter ✔️ ✔️    
Atténuer ✔️ ✔️    
Compenser   ✔️    
Investiguer sur ✔️
Remplacer ✔️
Modifier ✔️
Maitriser / Assister ✔️

 

Les finalités autour du diagnostic, de la prévention, de la prédiction et du pronostic sont les plus évidentes, les autres sont plus tirées par les cheveux mais largement envisageables.

😅 Oui mais mon IA ne fait pas de diagnostic, elle fournit juste un conseil

Certes, mais elle est tout de même utilisée, parfois avec un réel enjeu clinique, sinon ça ne sert à rien de la proposer. Et si elle est efficace les utilisateurs lui feront de plus en plus confiance, jusqu’à ne plus douter de ses conclusions.
Le plus simple est de se tourner vers la notion de performance clinique d’un DM, donnée par le règlement 2017/745 :

la capacité d’un dispositif, du fait de tout effet médical direct ou indirect résultant de ses caractéristiques techniques ou de fonctionnement, y compris en matière de diagnostic, …

La finalité d’un DM peut donc être indirecte, c’est facilement applicable aux IA d’aide au diagnostic ou à la prise de décision thérapeutique.

🥈 Classes possibles d’une IA avec le règlement 2017/745

Le nouveau règlement 2017/745 est plus sévère pour le logiciel que la directive 93/42 (nous sommes en pleine période de transition). Très peu d’IA tombent en classe I (auto certification), c’est plutôt IIa, IIb et III (assurance qualité et autres contrôles par un organisme notifié) tout ça à cause de la règle 11 :

Les logiciels destinés à fournir des informations utilisées pour prendre des décisions à des fins thérapeutiques ou diagnostiques relèvent de la classe IIa, sauf si ces décisions ont une incidence susceptible de causer :

  • la mort ou une détérioration irréversible de l’état de santé d’une personne, auxquels cas ils relèvent de la classe III, ou
  • une grave détérioration de l’état de santé d’une personne ou une intervention chirurgicale, auxquels cas ils relèvent de la classe IIb.

Les logiciels destinés à contrôler des processus physiologiques relèvent de la classe IIa, sauf s’ils sont destinés à contrôler des paramètres physiologiques vitaux, lorsque des variations de certains de ces paramètres peuvent présenter un danger immédiat pour la vie du patient, auxquels cas ils relèvent de la classe IIb.

Tous les autres logiciels relèvent de la classe I.

Ainsi l’IA réanimateur tombera en classe III, la dermato en IIb et l’IA kiné en classe IIa. En gros.

Mais la règlementation coure après la tech, les règles et définitions seront adaptées au fil des prises de bec entre fabricants et autorités responsables.

🔍 De la difficulté de certifier une IA

Il y-a des trucs que l’on adore dans le médical :

  • Définir les exigences fonctionnelles
  • Vérifier leur implémentation
  • Valider l’atteinte des objectifs médicaux du dispositif

Spécifier et vérifier une IA

La norme applicable pour les logiciels médicaux est l’IEC 62304, le principe : 3 classes A, B, C : A si un bug est sans danger, C si c’est très grave, B sinon. Les exigences vont crescendo avec la classe :

  • Classe A : définir la spécification du système (à un niveau macro, sans trop de détails) et vérifier
  • Classe B : définir en plus l’architecture du système et la vérifier
  • Classe C : définir la spécification, l’architecture et chaque élément logiciel de l’architecture jusque dans le moindre détail

La classe A ne voit qu’une grosse boite noire, la B une somme de boites noires et la classe C  est une somme de boites blanches (boite noire : on définit uniquement le résultat attendu; boite blanche: on spécifie également le comment).

Problème : l’IA est une énorme boite noire composées de milliers (millions) de toutes petites boites tout aussi noires. Vu que l’on ne sait pas comment les paramètres de l’IA sont réglés après apprentissage il va falloir faire le deuil de la spécification détaillée des unités logicielles (décrire les petites boites).

Valider une IA

Quelques pistes :

  1. Démonter la qualité des données utilisées pour l’apprentissage : quantité, représentativité, biais, … un travail d’expert en évaluation clinique
  2. Faire des essais de vérification sur la base de données d’entrée, avec un seuil d’erreur acceptable minuscule
  3. Faire une validation sur des données nouvelles, toujours en démontrant leur pertinence, toujours en visant un % d’erreur tolérable

🔄 Des mises à jour ponctuelles

Il faut abandonner l’idée de faire continuellement progresser l’IA car chaque modification rend caduque la certification, ou alors il faut démontrer que l’impact est mineur, bon courage.

Les fabricants devront faire des updates ponctuelles en faisant progresser les IA en interne (en utilisant notamment les remontées d’infos des IA sur le terrain) puis en refaisant les spécifications, vérifications et validations nécessaires avant de libérer une nouvelle version.

(mini) État de l’art : les applications de l’IA en médical

🇫🇷 Les IA médicales Françaises du marché

À ma connaissance il n’IA pas foule. Therapixel, issue de l’INRIA, propose une IA pour interpréter des images médicale, classe IIa, elle a gagné le concours 2017 international de mammographie. Par ici pour les explications.

D’autres IA sont encore en développement ou en cours de certification, comme RIHDO (traitemant des cancers par immunopathérapie) un partenariat entre Evolucare, Ariana Pharma et Philips HealthTech ; HECAM (détection des métastases des cancers colorectaux) ; EOS imaging (en radiographie ostéo-articulaire) ; Supersonic Imagine (échographie dotée d’IA via le cloud); Oncodesign (pour la prise en charge des cancers); Therapanacea (pour définir les traitements par radiothérapie) … et plein d’autres startups qui n’ont pas encore forcément communiqué : assistance en bloc opératoire, analyse en traumatologie, analyse d’ECG, surveillance des prothèses cardiaques connectées, analyse de la rétine en opthalmo, …

En bref

News : Blablamed* se targue d’avoir certifié la première IA médicale.
Des bémols : ce n’est pas la première, c’est un système expert qui a été développé en marque blanche. Le soft est probablement classe I, il va tomber en classe III avec le règlement si l’argumentaire n’est pas revu à la baisse (« 250 diagnostic d’urgence »).

youLoose* « Artificial intelligence dedicated to fight cancer », je me suis arrêté aux CGU (« Ces informations ne peuvent donc pas être assimilées à des diagnostics ou des décisions thérapeutiques »).

* : les noms sont fictifs, je balance mais pas trop.

🌎 Deux gros : IBM & Google

IBM Watson

C’est certainement l’acteur le plus médiatisé et c’est vrai que IBM mise énormément sur le médical, parmi ses projets :

  • recommandation de soin en oncologie : radiothérapie, chimiothérapie
  • radiologie et analyse d’image : en digestif, neurologie, pulmonaire, trauma, …
  • détection de mélanomes en dermatologie
  • gestion du parcours de soin du patient
  • calcul des posologies de médicaments
  • gestion du diabète

Au départ présenté comme notre futur médecin Watson est maintenant vendu comme un super assistant, qui va tenir compte en quelques secondes de milliers d’articles, comptes rendus et autres recommandations qu’un médecin n’aura jamais le temps de lire.

Watson est loué par une centaine de centres hospitaliers dans le monde, bon nombre sont des partenaires d’IBM qui l’aident à mettre au point son système.

Google Deep mind

Là où IBM s’associe avec des établissements de santé, Google (Verily) noue des partenariats avec des industriels déjà en place dans le DM et la pharma :

  • Association avec Sanofi pour créer un vaccin antigrippal : l’IA va analyser les données de Sanofi pour identifier les bio marqueurs nécessaires au développement des vaccins.
  • Toujours avec Sanofi, mais cette fois pour la gestion du diabète
  • Avec Optos sur les pathologies oculaires liées au diabète (détection précoce de rétinopathie diabétique et de ses œdèmes maculaires)
  • Avec l’américain Johnson & Johnson sur des robots chirurgiens de plus en plus autonomes
  • Avec la NHS sur les cancers tête et cou, pour accélérer les diagnostic. L’occasion de chouraver les données de santé de 1’600’000 patients sans leur accord (comptes rendus d’examen, résultats tests VIH, avortement, indication d’overdose, …) « Don’t be evil », leitmotiv de Google renié par Larry Page en 2014 😈.

⚕️ Du côté de PubMed

Pour les plus courageux : un tour sur PubMed pour connaitre les dernières publications en matière d’IA.
IA classification cancer peau

  • Dermatologie : une étude des performances de GoogleNet Inception dans la classification des cancers de la peau. Résultats : les détections sont plus fiables que celles des médecins (96% vs 95% des tumeurs malignes, 90% vs 76% des tumeurs bénignes) et dans les deux cas le taux de succès est excellent jusqu’à arriver aux pathologies très spécifiques où les performances s’effondrent
  • Encore des mélanomes détectés sur des images, après 100 parties l’IA gagne face au médecin avec 76 à 70 (spécificité : 62 contre 59, même sensibilité à 82%).
  • Soins intensifs : une IA qui accompagne le praticien pour chercher des informations en soins intensifs. Résultat : gain de temps de  40%.
  • Segmentation automatique des tumeurs : la publication montre une réduction jusqu’à moitié de l’erreur d’estimation du volume restant près une chirurgie hépatique
  • Oncologie : Watson contre le médecin, 80% de réussite dans des cas non métastatiques, 45% sinon; Les chiffres sont moins bons à mesures que les pathologies sont complexes. Ce n’est pas fou-fou même si l’IA reste championne de vitesse : quelques secondes contre des dizaines de minutes pour les hommes
  • Tomodensitométrie et recherche d’hémorragies et saignements. Résultat : 90% d’efficacité
  • Pneumologie : à partir d’images de scan, permet de détecter une BPCO, de prévoir les épisodes aigus et d’estimer la mortalité. Résultats : l’analyse de l’image est efficace dans 92% des cas, la détection de BPCO dans 77% des cas, les épisodes aigus prédits ont 2 fois plus de change de survenir, les résultats sur la mortalité ne sont pas terribles mais ils ne portent que sur très peu de patients.
  • Neurochirurgie : une équipe de l’INSERM a entrainé une IA pour prédire le prochain geste du chirurgien lors d’une intervention. Résultat : 95% des prédictions sont correctes. Une application possible : la formation des étudiants.
  • Parkinson : étude d’un dessin réalisé par le patient (une spirale) pour détecter des symptômes de parkinson. Résultats : les analyses sont justes dans 86% des cas.
  • Psychiatrie : détection des tendances suicidaires par imagerie cérébrale (on regarde l’activité cérébrale pendant que le sujet doit réfléchir à des concepts comme le bien, la mort, la gentillesse ou l’espoir). Résultat : taux de succès de 91%.
  • un papier sur les conséquences contrastées de l’utilisation des IA basées sur le machine learning par des médecins (les erreurs de l’IA ne sont pas forcément détectées, le contexte n’est pas assez pris en compte et le manque de schéma de pensée de la machine est souvent pénalisant pour prendre en compte les résultats).

et bien d’autres, il existe même une revue dédiée à l’IA en médecine.

Conclusion : des promesses et des contraintes techniques

Les promesses sont là mais des freins font que tout ne va pas être chamboulé du jour au lendemain :

  • manque de données à analyser pour les cas cliniques peu repandus
  • données cliniques parfois fausses, ou du moins biaisées
  • en parlant de biais : les facteurs ethniques et sociaux sont parfois noyés dans la masse de données
  • la sélection des données est ultra-critique, pour maitriser les biais, il faut encore avoir recours à une expertise humaine
  • les algos raisonnent en statistiques : un avis médical dominant sera plus écouté qu’un nouvel avis peut-être plus pointu
  • il n’y a pas de prise en considération des opinions locales et les médecins Danois n’ont pas forcément les mêmes approche que les Texans
  • il faut tenir compte des prestations de santé proposées localement
  • les dossiers médicaux sont loin d’être tous facilement lisibles par un ordinateur (abréviations, schémas, … sans parler de déchiffrer une ordonnance manuscrite) il faut un long travail humain de mise en forme des données brutes
  • une IA ne va pas expliquer les raisons de ses choix, simplement parce qu’il n’y a aucun raisonnement derrière, seulement une retranscription des avis dominants
  • la médecine ne se résume pas à de l’analyse d’image et de la prise en compte de consensus : il y-a les particularités propres à chaque patient et des feedbacks que seuls un humains peuvent percevoir (le simple « bonjour » du patient peut en dire énormément)

 

 

Rendez-vous courant 2020, le temps de certifier une première vague d’IA médicales.

 

Pour en savoir plus

  • [📁] rapport du Sénat. Uniquement pour info, la partie sur les DM n’est pas terrible (surtout sur la partie normes applicables)
  • [📁] rapport de #franceIA (dieu que ce nom est ridicule), groupe de travail animé par le mathématicien avec le gros nœud papillon (j’ai oublié qu’il s’appelle Cédric Villani). Uniquement pur info, les propositions sur la santé se limitent à la data
  • [📄] un article sur presisement.org
  • [📻] La chronique des composants sur le deep learning, avec une explication de l’IA dès 00:40:48
  • [📻] Boi Faltings introduit l’intelligence artificielle à l’université de Lausanne
  • [📻]  l’ATG spécial IA, vous pouvez aller directement à la 46 ième minute pour écouter Fabien Raimbault
  • [📻] la sphère de radio canada sur l’IA en médecine, l’entretien avec le Dr Jeffrey Goldstein d’IBM est particulièrement intéressant
  • [📻] la méthode scientifique de France Culture avec une émission plus subtile que son titre : « Skynet : l’éveil de l’intelligence artificielle » (ça part en saucisse chez France Culture)
  • [📽️] leçon inaugurale de Yann LeCun au Collège de France sur l’apprentissage profond
  • [📽️] science étonnante sur le deep learning
  • [🎬] Ghost in the shell
  • [📘] Le cycle des robots d’Asimov