Edito | Intelligences : rajouter de l’humain à l’artificiel

L’intelligence artificielle (IA) suscite espoirs et craintes en particulier dans le domaine de la santé. Il paraît donc important d’en comprendre l’intérêt, les précautions d’utilisation et les limites.

L’IA fait l’objet de plusieurs définitions complémentaires. Pour le Parlement européen, « l’IA désigne la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité »1 . La commission nationale Informatique et libertés (Cnil) y adjoint « les comportements dépassant les capacités humaines »2, ce qui ne reflète qu’incomplètement la réalité. L’Organisation mondiale de la Santé préfère une définition décrivant les grandes lignes de son mode de fonctionnement : « L’intelligence artificielle fait référence à la capacité d’algorithmes embarqués dans des dispositifs techniques pour utiliser des données afin d’effectuer automatiquement des tâches sans intervention humaine pour programmer explicitement chaque étape d’un processus »3 . Elle s’applique parfaitement aux utilisations en santé en perpétuel développement. Schématiquement, ces dispositifs permettent déjà et laissent espérer une amélioration notable dans plusieurs domaines dont : la médecine prédictive, préventive et personnalisée (diagnostic précoce, traitements et stratégies thérapeutiques personnalisés) ; l’épidémiologie et la santé publique (appui à la détection de risques sanitaires, suivi de l’incidence de maladies ou de comportements à risque, alerte des autorités sanitaires) ; aide à la décision et amélioration de la qualité et la sécurité des soins (aide à la prescription, analyse d’image, analyse de signaux physiologiques ou biologiques) ; mise en place d’essais cliniques.

La loi de bioéthique, transposée dans le Code de la santé publique en encadre en partie l’utilisation [1] mais n’est, en l’état, pas applicable, faute notamment de publication de l’arrêté définissant les dispositifs médicaux concernés. Elle ne fait qu’ébaucher une partie des questions à traiter, notamment pour le respect des personnes et des droits du patient4 et pour les conditions d’utilisation qui impliquent à la fois les professionnels de santé et les concepteurs de chaque système. Pour appréhender ces questions et tenter de résoudre une partie des craintes suscitées par le recours à l’IA, il est nécessaire de comprendre, même grossièrement, le fonctionnement de ces systèmes.

Ces systèmes complexes mettent en œuvre des mécanismes cherchant à se rapprocher de ceux d’un raisonnement humain. À partir du traitement statistique, par des algorithmes, de masses de données considérables (données massives ou big data), ils apportent la solution la plus probable à un problème donné. Les données peuvent provenir de sources extrêmement variées et hétérogènes, tant dans leur origine, leur langue que leur format (texte ou multimédia). La fiabilité des données conditionne la performance de ces systèmes. La performance dépend également de la qualité des algorithmes, notamment des hypothèses qui sous-tendent le « raisonnement » de la machine. Ce « raisonnement », au travers de ses modalités imposées par les concepteurs, constitue la phase d’apprentissage du système conduisant au modèle mathématique générant une déduction ou une prédiction à partir des données d’entrée. C’est à ce stade que sont fixés, par les concepteurs, les critères de performance avec leur seuil d’erreur acceptable (par exemple la sensibilité et la spécificité d’un test diagnostique). Certains systèmes peuvent d’eux-mêmes modifier leur fonctionnement une fois alimentés par de nouvelles données, dans un processus itératif d’apprentissage automatique (machine learning). Ce n’est qu’après une phase de tests des résultats obtenus que la marge d’erreur du système est établie et qu’il peut être exploité. En santé, ces systèmes sont au moins aussi performants que les équipes soignantes pour les tâches qui leur sont assignées, en particulier pour les tâches répétitives (comme l’analyse de signaux physiologiques : électrocardiogramme ou électroencéphalogramme par exemple).

Cependant, la complexité croissante de leur conception et de leur fonctionnement les rend difficilement intelligibles à leurs utilisateurs, confrontés à une boîte noire. À défaut d’en connaître le fonctionnement, il importe, pour les utiliser à bon escient, d’en connaître les limites de performance et les écueils. Peu de travaux évaluent ces limites. L’analyse d’images pour différencier tumeurs malignes et bénignes [2] ou détecter des métastases [3] a un niveau de performance élevé qui dépend de l’algorithme utilisé, avec une plus grande dispersion de la spécificité que de la sensibilité. Parmi les écueils, les plus fréquemment relevés concernent le risque que le modèle ne recoure qu’à des données partielles, négligeant une partie de la population concernée par le problème soulevé (par exemple données minorant la proportion de femmes dans un échantillon4). Pour comprendre les erreurs possibles, la Cnil distingue les erreurs de conception du système (manque de représentativité des données, hypothèse de départ trop approximative, mauvais critères d’entraînement de l’algorithme), celles liées au matériel ou aux conditions d’utilisation (mauvaise qualité des données, défauts liés au matériel) et les risques non spécifiques de tout système informatique5.

Une utilisation large des outils d’IA en santé nécessite donc, au-delà de l’indispensable identification et des corrections de ces erreurs par les concepteurs et le fabricant, la confiance des utilisateurs : professionnels de santé et patients. Ces derniers doivent donc être informés du recours à ces systèmes lors de leur prise en charge ainsi que des incertitudes liées à leur emploi, afin de préserver leur liberté de choix tout au long de leur parcours de soins. Cela nécessite également que les professionnels de santé, et singulièrement les médecins disposent de ces informations pour confronter la performance du système qu’ils emploient à leur propre compétence. Cette façon de procéder est une garantie que l’IA enrichit la compétence des soignants sans jamais les remplacer. Elle contribue à la qualité et à la sécurité des soins ainsi délivrés. Elle s’inscrit dans une démarche d’éthique médicale ainsi que le souligne l’article publié dans ce numéro [4]. Cette obligation éthique doit être étendue aux concepteurs et aux diffuseurs de ces systèmes compte tenu de l’impossibilité pour les utilisateurs d’identifier les erreurs ou les biais de ces systèmes. Seule la réglementation, au mieux internationale, peut y parvenir en définissant les critères de qualité et de contrôle de tels systèmes.

Notes :

1- https://www.europarl.europa.eu/news/fr/headlines/society/20200827STO85804/intelligence-artificielle-definition-et-utilisation(Consulté le 02-03-2023).
2- https://www.cnil.fr/fr/intelligence-artificielle/intelligence-artificielle-de-quoi-parle-t-on(Consulté le 02-03-2023).
3- https://www.who.int/publications/i/item/9789240029200(Consulté le 02-03-2023).
4- https://podcast.ausha.co/les-podcasts-du-droit-et-du-chiffre/episode-2-nouvelle-loi-de-bioethique-l-intelligence-artificielle-fait-son-entree(Consulté le 02-03-2023).
5- https://www.cnil.fr/fr/intelligence-artificielle/intelligence-artificielle-de-quoi-parle-t-on(Consulté le 02-03-2023).

Références

1- Code de la Santé Publique. Article L4001-3. Accessible à : https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000043890272 (Consulté le 08-03-2023).

2- Brown S, Davidovic J, Hasan A. The algorithm audit: Scoring the algorithms that score us. Big Data & Society 2021;8(1). Doi : 10.1177/2053951720983865.

3- Xu HL, Gong TT, Liu FH, Chen HY, et al. Artificial intelligence performance in image-based ovarian cancer identification: a systematic review and meta-analysis. EClinicalMedicine 2022;(17);53:101662. Doi: 10.1016/j.eclinm.2022.101662.

4- Béranger J, Tahon E. Les Systèmes d’Intelligence Artificielle : un enjeu pour la qualité et l’éthique de la prise en charge des soins. Risques & Qualité 2023;20(1):15-22.