> Retour à la présentation du Dossier 133
  • Les IA, des outils « explosifs »…

  • « Les réponses de ChatGPT peuvent être incorrectes ou biaisées... De même, l’outil peut fournir de fausses biographies ou des études inexistantes », admet Open AI. Si l’outil démocratise les données, il ouvre la porte à de fausses informations, qui, diffusées à large échelle, peuvent entraîner des conséquences désastreuses, surtout en matière de santé. N’oublions pas qu’à ses débuts, une réponse de ChatGPT concernant un diagnostic avait proposé au patient… de se suicider !


    S’il semble évident qu’une formation à l’outil est indispensable, ne serait-ce que pour créer des prompts, il faut bien garder à l’esprit que ChatGPT repose sur un système de données qui doivent être fiables et qualitatives pour être manipulées. Les précédents outils intégrant des IA n’ont pas toujours tenu leurs promesses, parfois en raison de la qualité discutable de recueil des données ou d’une méthodologie peu ou mal adaptée. De fait, les résultats pouvaient être faussés, entraînant un risque au niveau médical. Contrairement à ces applications, ChatGPT, nourri par des centaines de milliards de données, peut fournir des réponses précises et cohérentes à presque toutes les questions posées par les utilisateurs sur leur santé. Reste que de nombreuses questions éthiques et méthodologiques se posent… D’autant qu’« un algorithme n’a pas de responsabilité. Ce n’est ni une personne morale ni une personne physique. Il conçoit quelque chose à partir d’un modèle, avance Aurélie Jean, experte française sur la recherche en intelligence artificielle. Il faut ainsi revenir à la source même de l’intelligence. La théorie triarchique développée par Robert Sternberg distingue effectivement trois types d’intelligence : l’analytique, maîtrisée par la machine à travers un langage binaire; la créative, émotionnelle, qui s’avère proprement humaine; et la pratique, qui est en fait le bon sens. »

    Savoir poser un cadre. D’une part, et c’est un élément majeur, les données liées à la santé sont confidentielles et le plus souvent sensibles. Elles doivent être protégées pour éviter toute violation de la vie privée. Les institutions de santé doivent ainsi se montrer très vigilantes. D’autre part, les algorithmes ne sont pas sans poser question en termes de transparence. Si des milliards de données sont mobilisées pour produire une réponse, les professionnels de santé doivent comprendre comment les algorithmes construisent cette réponse pour prendre leur décision. « Il peut toujours y avoir une zone d’ombre, une incertitude par rapport à un résultat auquel il est difficile de faire confiance, l’algorithme donnant une réponse ou un diagnostic sans donner les raisons pour lesquelles il a pris cette décision. Et ce même s’il existe des “méthodologies d’interprétabilité” où l’intelligence artificielle donne le résultat mais aussi les motifs de ce dernier. Le médecin en apprécie ensuite la pertinence », rappelle Jean-Emmanuel Bibault, médecin cancérologue et chercheur spécialisé en intelligence artificielle.

    Introduire l’éthique dans la pratique. Par ailleurs, des questions éthiques concernant l’utilisation des données de santé des patients se posent, notamment en ce qui concerne leur consentement éclairé. Car les décisions prises par des IA en matière de santé ont des implications directes sur la vie des patients. De plus, ces outils d’IA génératifs peuvent potentiellement influencer les patients d’une manière qui ne serait pas nécessairement cautionnée par les médecins. Cela suppose d’utiliser ces logiciels de façon éthique et responsable.

    Enfin, et cela pose les bases d’un vaste chantier, cette fois administratif : les modèles d’IA risquent de bousculer les bases du système de santé qu’il va falloir faire évoluer vers un dossier numérique de santé centré sur le patient. Aussi, sous condition de qualité et de fiabilité des données utilisées, les acteurs de la santé auront tout intérêt à s’approprier les IA pour améliorer la qualité des soins.

    Malgré ces obstacles, Google et Microsoft, s’engagent depuis peu dans le secteur des bots capables de répondre aux questions médicales. Si les résultats des premières évaluations semblent prometteurs (malgré quelques erreurs, l’utilisation généralisée de l’intelligence artificielle dans le domaine de la santé est en route)…

    Anne Bouvier & Frédérique Guénot

    1. « 2041, L’odyssée de la médecine : Comment l’intelligence artificielle bouleverse la médecine ? » Jean-Emmanuel Bibault, Éditions des équateurs.

     

    Quand évolution rime avec révolution...

    Si les deux premières versions, ChatGPT-1 en 2016 et ChatGPT-2 en 2019, ont rencontré un succès mitigé, la troisième version, en novembre dernier, a ouvert les portes d’une révolution sans précédent. Si ChatGPT2 convenait aux tâches d’IA conversationnelle, GPT-3 était mieux adapté aux tâches générales de modélisation prédictive. Mais ce n’était pas encore suffisant… Dès la mi-mars, OpenAI publie une version plus perfectionnée, GPT-4. Alors que la précédente n’était pas exempte d’erreurs, la nouvelle version est plus précise, plus réfléchie. Car ChatGPT-4 dispose d’une base de données enrichie, donc de nouvelles potentialités. Si son prédécesseur se limitait à des requêtes textuelles, ChatGPT-4 est un modèle multimodal pouvant répondre à différents formats de contenus. Il comprend, interprète et analyse. Là où ChatGPT-3 se limitait à des réponses de 3 000 mots, ChatGPT-4, plus puissant, atteint 25 000 mots, sa mémoire allant jusqu’à environ 64 000 mots. Cerise sur le gâteau, GPT-4 peut extraire du texte de pages web si l’on met une URL dans le prompt. Utilisant une large quantité de données, il permet des réponses plus fines et des modalités de traitement de l’information plus poussées. Il peut répondre sur un style académique, poétique, historique, selon la demande de l’utilisateur. Plus large, son champ de traitement de l’information est également plus créatif, ouvrant des potentialités sans limites. Avec cette nouvelle version, les tâches complexes sont bien mieux comprises, et les réponses générées, plus convaincantes. En revanche, ces avancées ne permettent toujours pas d’accorder une entière confiance à GPT-4. Mais, rassurons-nous, Open AI travaille déjà sur de nouvelles versions...

    A.B.

     

> Retour à la présentation du Dossier 133
  • Ce dossier est composé de 3 Articles