> Retour à la présentation du Dossier 129
  • La e-médecine, entre technologie et éthique…

  • « Outre l’efficacité clinique et la sécurité des patients, l’IA pose une série de défis éthiques et juridiques inhérents à la technologie elle-même mais qui ont une importance extrême dans le domaine de la médecine », rappelle Brent Mittelstadt, chercheur et directeur de recherche à l’Oxford Internet Institute1 .

    Envisager une coresponsabilité ? Se pose d’abord une question liée à la responsabilité. « L’introduction de l’intelligence artificielle dans le domaine de la santé crée une médecine 3.0 qui comprend non seulement patients et médecins, mais aussi des machines. En cas de problème, qui faut-il condamner ? » interroge le Dr Loïc Etienne. Car une erreur médicale causée par une IA aura un impact plus grand que dans tout autre domaine. Pour l’heure, c’est le médecin qui est responsable, mais le concepteur de l’algorithme ne pourrait-il pas être lui-même mis en cause ? Il est dès lors important de proposer une supervision humaine aux décisions d’intelligence artificielle, celle-ci n’étant pas infaillible. En effet, la confrontation médecin/intelligence artificielle est partagée. Si l’IA permet de réduire le taux de diagnostics négatifs en imagerie médicale, en obtenant de meilleurs résultats que l’œil humain, les médecins ont deux fois plus de chances d’établir le bon diagnostic que les plateformes d’aide en ligne. De même, l’IA détecte plus finement les mélanomes que les dermatologues.

    Sécuriser les données. Ensuite, l’intelligence artificielle fonctionne à partir d’une importante quantité de données. Les questions éthiques relatives au stockage de ces données ne concernent pas l’IA en elle-même, mais rappellent l’importance et la sensibilité de telles informations. Leur fuite ou utilisation malveillante serait problématique pour les patients susceptibles d’être identifiés. Leur état de santé, tout comme leurs habitudes de vie, peuvent être connus. Cela pose ainsi une question de confiance, les patients refusant de partager leurs données de santé sauf si elles aident à faire progresser la recherche médicale. En France, l’accès aux données est conditionné par le respect de la loi informatique et libertés. L’utilisation de ces données est encadrée par le RGPD (Règlement général sur la protection des données), lequel fait office de cadre juridique pour la collecte et le traitement de toutes données personnelles dans l’Union européenne. Entrée en vigueur en 2018, le RGPD vise à accroître la protection des personnes concernées par un traitement de leurs données à caractère personnel et la responsabilisation des acteurs de ce traitement. Elle empêche ainsi toute utilisation malveillante. Cependant, quid des données comportant un risque de discrimination relatives au genre, à l’origine ou encore au handicap… L’IA — ce n’est pas un secret — génère des décisions biaisées ou discriminatoires et des recommandations pouvant refléter préjugés et inégalités. Il est alors conseillé de ne pas mémoriser ces variables, ou de les sécuriser et les anonymiser. Ce qui suppose de travailler directement sur les méthodes d’IA pour qu’elles intègrent la non-discrimination.

    Comprendre les décisions de l’IA. Autre point d’ordre éthique, la compréhension et l’explicabilité des données issues de ces technologies. Le patient souhaite légitimement comprendre les informations liées à ces technologies mais aussi les décisions prises par ces dernières. Il n’est pas concevable d’imposer des décisions dictées par les algorithmes si le patient ne les comprend pas. De même, les médecins doivent maîtriser ces technologies pour interpréter les algorithmes et les expliquer au patient, afin que ce dernier puisse participer aux décisions le concernant. Cela implique de former les praticiens à ces technologies d’IA gage de leur professionnalisme et de la confiance qui leur est accordée.

    F.G.

    1. Université d’Oxford, Royaume-Uni.

> Retour à la présentation du Dossier 129
  • Ce dossier est composé de 2 Articles