Chapitre 1. Le sac noir du docteur
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Dans la nouvelle de C. M. Kornbluth, , intitulée "Le petit sac noir", le Dr Full, un médecin en difficulté, découvre un mystérieux sac de médecin du futur rempli d'appareils médicaux de pointe et de médicaments.1 Le Dr Full, un médecin en difficulté, découvre un mystérieux sac de médecin venu du futur, rempli d'appareils médicaux et de médicaments de pointe. Cet équipement futuriste améliore ses capacités de médecin, lui permettant de diagnostiquer et de traiter les patients avec une efficacité sans précédent. En explorant le contenu du sac, le Dr Full s'émerveille du potentiel des futures innovations médicales et a l'impression de se trouver à l'aube d'une révolution dans le domaine des soins de santé.
Cependant, le récit de Kornbluth n'est pas simplement une célébration du progrès médical. Au fur et à mesure que l'histoire se déroule, il devient évident qu'une technologie aussi puissante, entre de mauvaises mains, peut être exploitée à des fins personnelles plutôt que pour le bien de tous. Le récit nous rappelle que si les progrès médicaux futurs peuvent sembler magiques dans leurs capacités, ils s'accompagnent également de responsabilités éthiques importantes et d'un risque d'utilisation abusive. Ce récit fictif nous prompt à considérer à la fois les possibilités passionnantes et les défis éthiques qui nous attendent alors que la technologie médicale et l'IA (LLMs et IA générative) continuent de progresser rapidement, souvent de manière interconnectée.
L'IA et les LLMs ont le potentiel d'améliorer les soins cliniques, en particulier dans les domaines qui augmentent les processus de prise de décision des cliniciens, améliorent les interactions patient-médecin, rationalisent les tâches administratives, améliorent l'éducation et l'engagement des patients et, en fin de compte, conduisent à de meilleurs résultats en matière de santé. En exploitant les capacités des LLMs multimodaux, les établissements de santé ont la possibilité de développer des assistants médicaux virtuels sophistiqués qui peuvent surveiller de manière proactive la santé des patients et aider au diagnostic, selon un cadre médical supérieur de NewYork-Presbyterian, un réseau hospitalier de premier plan à New York.2
Tout comme le sac noir traditionnel a équipé les médecins d'outils essentiels pour fournir des soins de qualité, l'IA est sur le point de devenir un atout indispensable donnant aux cliniciens les moyens de fournir à leurs patients des soins plus personnalisés, plus efficaces et fondés sur des données probantes. Ce chapitre explore les possibilités d'amélioration des soins aux patients grâce aux LLMs - en particulier là où ils pourraient améliorer les soins de santé, là où les cliniciens et les patients en bénéficient le plus.
Les LLMs sont des modèles d'apprentissage automatique de traitement du langage naturel (NLP) qui peuvent apparemment comprendre3 et générer des textes en langage humain. Les LLMs sont un type d'intelligence artificielle (IA) qui comprend et manipule le langage humain avec une compétence remarquable. Ils sont appelés "grands" parce qu'ils sont formés sur de vastes quantités de données textuelles, souvent des milliards de mots, ce qui leur permet d'apprendre les nuances du langage humain.
Pour les cliniciens, les LLMs peuvent être considérés comme des outils avancés de traitement du langage qui peuvent les aider dans une variété de tâches administratives impliquant des données de santé (structurées comme les dossiers médicaux électroniques [DME] ou les notes non structurées des médecins). Tout comme les stéthoscopes et les appareils de radiographie élargissent les capacités d'un clinicien à évaluer la santé d'un patient, les LLMs peuvent améliorer la capacité d'un clinicien à analyser et à interpréter de grandes quantités de données de recherche, des fils de courriels avec des vidéos intégrées, les dossiers de santé historiques d'un patient, des notes cliniques, des résumés de sortie, et bien plus encore.
L'IA générative est un sous-ensemble ou un type d'IA, tout comme les LLMs et l'apprentissage automatique sont des types d'IA. L'IA générative se concentre sur la création de nouveaux contenus tels que du texte, des images, des vidéos ou du son, souvent en réponse aux questions d'un utilisateur. Les résultats générés ressemblent souvent à du contenu créé par l'homme en termes de style et de structure.
Lorsque nous utilisons des expressions telles que LLMs ou l'IA générative dans ce livre, nous le faisons en tant que termes fourre-tout qui englobent un large éventail de systèmes d'IA, même s'ils ont des attributs différents ou emploient des algorithmes d'apprentissage automatique différents. Ces termes fourre-tout comprennent notamment les LLMs, les petits modèles de langage, les modèles multimodaux et l'IA générative.
Considère que ces modèles ont été formés sur un grand nombre d'informations écrites (livres, articles et sites Internet) et sur des tonnes de sujets dans le monde. Cela leur permet de comprendre les relations entre les mots dans les phrases et les paragraphes, les significations qui s'accumulent au fil des chapitres, les progressions globales présentées par les arcs narratifs, etc.
Lorsque OpenAI a publié son modèle de langage ChatGPT en 2022, il a transformé l'IA conversationnelle et libéré le NLP, en permettant aux masses d'avoir des conversations à consonance humaine et de répondre à des questions à l'aide d'une interface Web simple. Ce LLM a gagné en popularité dans le monde entier pour sa capacité à tenir des conversations à consonance humaine, à répondre à des questions, à ghostwriting essays et à effectuer un large éventail de tâches. Il a suscité l'intérêt de PDG d'entreprises technologiques au sujet de l'impact de la technologie sur les affaires et la vie de tous les jours. Mais rappelons comment nous devrions envisager l'utilisation des LLMs.
Un blog de 20234 discute des expériences de ChatGPT en donnant des indications sur la façon dont nous devrions penser et utiliser les LLMs. Si nous considérons les LLMs comme des outils de résumé et que nous traitons leurs prompts non pas comme des commandes adressées à un autre être sensible, mais comme des ancres pour ce processus où le résumé s'accorde avec quelque chose dans le monde réel, nous pouvons utiliser ces outils de manière efficace dans les soins de santé. Nous avons fait quelque chose de similaire avec les contraintes laconiques de la recherche par mot-clé : nous avons appris et apprenons encore comment "orienter" la recherche vers ce que nous voulons. Depuis l'avènement de la recherche il y a quelques décennies, nous avons appris à formuler des questions dans des ancres linguistiques susceptibles de conduire leur recherche vers ce qu'ils veulent. Nous pouvons faire la même chose pour les prompts LLM, en les traitant comme des ancres pour le résumé de préférence aux spécifications et ainsi bien l'orienter. Une fois que nous traitons les prompts LLM comme des ancres de résumé, nous pouvons les orienter plus efficacement en intégrant la tâche de résumé dans la base de connaissances du modèle, d'une part, et dans la portée de la tâche définie par le prompt, d'autre part.
Alors que nous commençons à mieux comprendre le fonctionnement des LLMs, l'hyperbole doit être équilibrée par une évaluation réaliste de la façon de construire et d'exploiter les LLMs dans les soins de santé. Les LLMs sont des modèles statistiques autorégressifs, une classe de modèles d'apprentissage automatique qui prédisent le mot suivant à partir du contexte. Par exemple, supposons que tu sois un auteur en train d'écrire une histoire. Tu as un assistant d'écriture qui te propose le prochain mot approprié en fonction des mots que tu as déjà écrits. Cet assistant a lu de nombreuses histoires, de tous types différents, et il sait donc approximativement comment les mots suivent d'autres mots afin de composer des phrases généralement utiles et des récits plus complexes. Avec l'assistant, tu continues à écrire, à accepter les suggestions, et de mot en mot, l'un après l'autre, ton histoire s'allonge. À chaque étape, le mot suivant découle des mots écrits auparavant. C'est essentiellement ainsi que fonctionne un modèle autorégressif : il apprend à partir des données existantes et génère (ou prédit) de nouvelles données, une étape à la fois, en se basant sur la séquence de données précédente.
Gemini, ChatGPT, Claude.AI et d'autres LLMs autorégressifs donnent l'illusion de raisonner comme les gens, en fournissant des réponses étonnantes à des prompts nuancés ou compliqués. Ils semblent même agir comme des personnes, en fournissant des réactions apparemment émotionnelles et une compréhension empathique. Ces illusions sont rendues plus crédibles grâce à nos biais cognitifs, c'est-à-dire notre tendance à l'anthropomorphisme. Le chapitre suivant, le chapitre 2, aborde plus précisément le fonctionnement des LLMs, en incluant dans des détails explicites les jetons, les paramètres, etc.
Potentiel des LLMs et de l'IA générative
Bien que les LLMs médicaux existants soient déjà impressionnants et utiles à certains égards, le développement n'en est qu'à ses débuts et ces innovations n'ont atteint qu'une fraction du potentiel de transformation de la façon dont nous fournissons les soins de santé. Les développements actuels mettent l'accent sur la réduction de la charge de travail du clinicien et de la documentation - mais ce n'est encore que le début de l'impact des LLM sur la prestation des soins de santé. Des versions entières spécifiques à la médecine sont déjà publiées, mais elles ne font pas encore sensation dans la manière dont les soins cliniques sont dispensés, et ce pour diverses raisons.
- Disponibilité et qualité des données
-
Les LLMs sont entraînés sur d'énormes ensembles de données, et leurs performances dépendront de la qualité des données utilisées pour les entraîner. En médecine, les données sont souvent réparties entre plusieurs sources, telles que les DSE, les revues médicales et les essais cliniques randomisés. De plus, les données doivent être complètes, précises et cohérentes ; des données de moindre qualité peuvent avoir un impact sur les performances des LLMs.
- Préjugés et équité
-
Les LLMs apprennent à partir de données biaisées, signifiant qu'ils sont formés sur des données qui reflètent les préjugés du monde. Cela peut conduire à transférer et à renforcer des préjugés déjà puissants dans la façon dont nous prodiguons des soins à certains groupes de patients. Par exemple, une LLM formée sur un ensemble de données biaisées de dossiers médicaux (par exemple, des ensembles de données qui contiennent un faible nombre de groupes raciaux ou ethniques spécifiques) peut également générer des recommandations biaisées. Lorsque l'on parle de biais, l'accent est mis sur le fait que le système fonctionne correctement, comme prévu. L'atténuation des biais est souvent essentielle à la fonctionnalité du système et à son utilisation réussie.
- Interprétabilité et explicabilité
-
Atteindre l'interprétabilité ou l'explicabilité a été l'un des défis les plus importants dans le développement de l'IA. Les LLMs sont souvent considérés comme des "boîtes noires" en raison de la complexité de leurs rouages internes, qui fonctionnent de manière si obscure que leur fonctionnalité globale et leurs résultats sont difficiles à comprendre ou à prédire. Le manque d'interprétabilité et d'explicabilité est problématique en médecine. Il y aura une réticence importante à adopter les LLMs dans les soins de santé si nous ne pouvons pas comprendre comment ils arrivent à des recommandations ou des diagnostics spécifiques.
- Le paysage réglementaire
-
L'un des principaux défis entourant le développement de l'IA en médecine est le vide réglementaire. Il n'y a actuellement aucune directive claire pour définir ce que signifie développer et déployer des LLMs dans le domaine de la santé. Cette incertitude freine effectivement l'enthousiasme à essayer d'utiliser l'IA dans des contextes médicalement complexes et à fort enjeu, car il existe peu de précédents pour guider les organismes de santé sur la façon d'agir dans ces conditions.
- Paysage éthique
-
En général, les préoccupations concernant l'utilisation des LLMs en médecine comprennent le risque d'utilisation abusive, l'érosion de l'autonomie du patient et l'invasion de la vie privée du patient. Les préoccupations éthiques doivent être prises en compte avant que les LLMs puissent être utilisés dans le domaine de la santé.
Les LLMs modélisent explicitement les relations entre les mots et le sens sur une longue portion de texte, ce qui permet une compréhension textuelle et une génération de contenu plus fluides. En outre, ils diffèrent des modèles de langage plus primitifs, qui ne peuvent que concaténer des mots dans un modèle de texte en raison de leur échelle de données et de la paramétrisation des modèles. Le chapitre 2 détaille le fonctionnement des LLMs, en expliquant les paramètres, les jetons, etc.
Les LLMs médicaux et autres existants sont, à bien des égards, déjà assez impressionnants. Nous n'en sommes qu'au tout début de la maturation de ces algorithmes et modèles, mais le potentiel de transformation de la prestation des soins de santé est énorme. Cependant, l'accent est actuellement mis sur la réduction des charges administratives et documentaires qui pèsent sur les cliniciens, et ce n'est que le début de la façon dont les choses pourraient changer. La génération actuelle de LLMs pourrait bientôt se sentir assez primitive. Il y aura beaucoup plus d'applications impressionnantes et transformatrices dans les années à venir, au fur et à mesure que les LLMs et d'autres types d'IA se développent et s'améliorent.
Il existe plusieurs LLMs et autres plateformes d'IA qui ont été spécifiquement créées pour des applications dans le domaine de la médecine et des soins de santé, certaines étant des prototypes de recherche et d'autres étant plus matures et utilisées dans des applications réelles. Voici quelques exemples marquants.
- PubMedBERT
-
Ce LLM5 et son modèle associé ont fait l'objet d'un préapprentissage sur du texte biomédical, et les chercheurs affirment qu'ils sont plus performants que tous les modèles de langage antérieurs. Il est conçu pour exceller dans le domaine biomédical. Il est entraîné sur un grand nombre d'articles de recherche biomédicale provenant de la base de données PubMed6 de la base de données PubMed. Il utilise BERT, un modèle NLP développé par Google. Il est conçu pour aider les ordinateurs à mieux comprendre et interpréter le langage humain en tenant compte du contexte et des relations entre les mots. BERT peut comprendre le sens d'un mot en se basant sur les mots qui le précèdent et le suivent dans une phrase ou un paragraphe. Le BERT a révolutionné le domaine du NLP et a été largement adopté dans diverses applications, telles que les moteurs de recherche, les chatbots et les outils d'analyse des sentiments. Sa capacité à comprendre et à interpréter le langage humain a des implications significatives pour améliorer l'interaction homme-machine et permettre un traitement plus précis et plus efficace de grands volumes de données textuelles.
- BioBERT
-
Il s'agit d'un modèle linguistique spécialisé adapté aux textes biomédicaux. Il s'appuie sur le modèle BERT original,7 qui a été formé sur un corpus de texte général. BioBERT est formé sur la littérature biomédicale, ce qui améliore sa capacité à comprendre et à traiter le langage médical et scientifique. Il est pré-entraîné sur des corpus à très grande échelle du domaine biomédical - en particulier, une combinaison de résumés PubMed et d'articles en texte intégral PubMed Central (PMC) de la National Library of Medicine des États-Unis.
- SciBERT
-
Conçu par l'Allen Institute for AI,, ce modèle dérivé de BERT8 est entraîné sur un large corpus de textes scientifiques provenant de domaines tels que la littérature biomédicale et informatique, et il a été appliqué à des tâches telles que l'abstraction de documents scientifiques.
- ClinicalBERT
-
Conçu pour apprendre le langage spécifique au domaine du texte clinique et sa structure distinctive, telle que les paraphrases à consonance humaine, ClinicalBERT9 est un LLM spécifique à un domaine, basé sur les notes cliniques de la base de données MIMIC-III,10 Il s'entraîne à effectuer des tâches telles que la reconnaissance d'entités nommées cliniques, l'extraction de relations et l'analyse de sentiments.
- Med-PaLM de Google
-
Le modèle linguistique Pathways (PaLM) de Google a été affiné en fonction des connaissances médicales pour créer Med-PaLM,11 qui a obtenu d'excellents résultats à divers tests de référence médicaux, y compris des tâches telles que la réponse à des questions d'examen médical et l'aide à la décision clinique. Google a également annoncé Med-PaLM2,12 qui a atteint le niveau d'expert humain en répondant à des questions de type USMLE (U.S. Medical Licensing Examination).
Que ce soit en utilisant les exemples spécifiques au domaine des LLMs précédemment mentionnés ou en couplant plusieurs modèles de base tels que GPT-4 (OpenAI), la famille Claude 3 (Anthropic), Gemini (Google), ou LLaMA 2 (Meta) couplés aux données propriétaires d'une entreprise, les LLMs changeront l'industrie de la santé pour le mieux. Ces modèles d'IA facilitent la navigation, la recherche et la compréhension du contenu du site Web d'un régime de santé ou d'un payeur. Les modèles accélèrent la recherche médicale en analysant de grands ensembles de données provenant des DSE, des essais cliniques et de la littérature scientifique. Les progrès récents des LLM offrent la possibilité à un médecin ou à un chercheur de faire lire par un LLM un courriel court ou long ou un ensemble de courriels, dont beaucoup peuvent inclure des clips vidéo ou audio et des résumés pour le clinicien.
De plus, les LLMs relèvent divers défis dans le domaine des soins de santé, tels que le déchiffrage et le nettoyage des notes médicales. Ils comblent également les lacunes en matière de communication entre le patient et le prestataire grâce à l'IA conversationnelle, assurent une compréhension approfondie des antécédents du patient avant le traitement et analysent les données de santé provenant de diverses sources afin d'obtenir de meilleures informations sur les patients. À mesure que les LLMs continuent d'évoluer et de s'intégrer au système de santé, leur impact devrait être transformateur et façonner l'avenir des soins aux patients, de la recherche et de la communication.
Il leur reste encore beaucoup de chemin à parcourir pour surpasser systématiquement l'expertise des professionnels de la santé les plus compétents. Pourtant, il existe un énorme potentiel d'intégration des LLMs en tant que troisième élément de la relation médecin-patient. Les LLMs pourraient être utiles pour aider au diagnostic, à la documentation et à la communication avec le patient.
Chaque processus clinique et administratif de soins de santé qui exige des humains qu'ils créent un travail original avec les données extraites du codage médical, de l'éducation des patients, du diagnostic, de l'accueil des patients, de la planification des traitements, de la gestion des médicaments, etc. est susceptible d'être réinventé.
Les applications ou apps de LLM et d'IA générative commencent à décoller, grâce à la maturation de la couche plateforme, à l'amélioration continue des modèles et à la disponibilité croissante de modèles gratuits et open source. Les développeurs, les startups et les entreprises disposent ainsi des outils nécessaires pour créer des applications innovantes. Comme les appareils mobiles ont donné naissance à de nouveaux types d'applications dotées de nouvelles capacités telles que des capteurs, des caméras et une connectivité en déplacement, les LLM sont prêts à inaugurer une nouvelle vague d'applications et d'appareils d'IA générative pour les soins de santé.
Par exemple, Perplexity AI démontre comment les LLMs peuvent être exploités pour créer des interfaces puissantes et conviviales pour la recherche et l'analyse d'informations. Perplexity est une plateforme populaire de recherche et de chat alimentée par l'IA qui utilise des LLMs existants (tels que GPT-3.5 et GPT-4) plutôt que d'être elle-même un LLM distinct. En tant qu'application ou interface d'IA construite au-dessus de ces modèles, Perplexity montre comment les développeurs peuvent créer des outils innovants en exploitant les capacités des LLMs avancés. Bien qu'elles ne soient pas spécifiquement axées sur les soins de santé, ces applications illustrent le potentiel des outils pilotés par les LLM à révolutionner l'accès à l'information et l'aide à la décision dans divers domaines, y compris la médecine.
De nos jours, ce ne sont pas les gadgets de santé qui manquent pour nous aider à optimiser notre vie. Une recherche sur Internet montre une vaste gamme de dispositifs médicaux portables utilisés dans les soins de santé13-dont des tensiomètres, des glucomètres, des moniteurs ECG, des trackers de fitness, et bien d'autres encore. Nous aimons attacher ces appareils à nous-mêmes pour rendre notre vie plus saine et nos conditions de travail plus faciles. Ces appareils deviendront de plus en plus utiles au fur et à mesure que les LLMs santé progresseront. Par exemple, les LLMs pourraient intégrer des données provenant de plusieurs sources - comme ton Fitbit, ton appli de régime, ton appli d'exercice, ton appli de jeûne et ton tracker de sommeil - afin de fournir une vision plus holistique de ta santé. Ils pourraient ensuite analyser ces données combinées pour identifier des modèles et des tendances qui pourraient ne pas être évidents en regardant chaque source de données de manière isolée.
Faire des recherches sur Internet reste une méthode de recherche courante pour l'autodiagnostic. Faire des recherches sur ses symptômes de cette manière est souvent appelé familièrement "consulter le Dr. Google". Cependant, il est clairement établi que les recherches sur Internet sont en corrélation avec de faibles augmentations de la précision du diagnostic et presque aucune de la précision du triage.14 Les LLMs changeront cette équation au fur et à mesure que la recherche sur Internet et les LLMs s'intégreront au cours des prochaines années. Le modèle d'interaction question-réponse des principaux LLMs t'oriente vers un échange de type conversation avec Internet - un échange qui est sensible au contexte et génératif.
Explorons les différences actuelles entre, par exemple, une recherche sur Google et un prompt de questions-réponses des LLMs.
- Style d'interaction
-
Une recherche Google est un style d'initiation-réponse, alors que les principaux LLMs emploient un style de question-réponse, où tu lui poses des questions en langage naturel et où il te répond avec une réponse spécifique. Une recherche Google renvoie généralement de nombreuses réponses à tes termes et phrases de recherche. C'est un système relativement flexible car il renvoie tous les résultats correspondants tout en les classant. Une recherche Google cite également les sources.
- Sources d'information
-
Lorsque tu effectues une recherche sur Google, le système puise dans l'énorme index de pages Web et d'autres contenus de l'Internet pour trouver ce qui pourrait correspondre à ta demande de recherche et le charger. En revanche, les principaux LLMs puisent dans des sources d'information sur lesquelles ils ont été formés, comprenant un corpus de données textuelles allant jusqu'à une date spécifique, qui présente souvent un décalage entre cette date et la date actuelle du prompt de l'utilisateur.
- Spécificité des réponses
-
Lorsque tu fais une recherche sur Google, tu vois probablement apparaître une série de pages Web, d'articles et d'autres ressources que tu dois parcourir et faire défiler pour trouver les informations spécifiques que tu cherches. Les principaux LLMs tentent de te fournir des réponses spécifiques - directement en rapport avec ce que tu cherches - sans t'obliger à faire toutes les recherches. Bien entendu, cela peut également entraîner des hallucinations, ce qui est une autre façon de dire que l'IA génère des résultats absurdes, ou qu'elle fournit simplement des informations erronées. Il convient de rappeler au lecteur qu'en disant que l'IA ou les LLMs de premier plan hallucinent, nous anthropomorphisons l'IA. En tant qu'objet non humain dépourvu de nombreuses qualités humaines, l'IA n'est pas capable d'éprouver des hallucinations littérales.
- Fabriquer de nouvelles choses
-
Une recherche Google est une méthode pour trouver des informations sur le web qui ont déjà été faites. Un LLM peut non seulement trouver ces informations, mais aussi les analyser, faire un nouveau texte et expliquer ou argumenter une certaine conclusion.
Les chatbots alimentés par les LLM répondront à nos questions sur notre santé, et les outils de diagnostic alimentés par les LLM aideront les médecins à diagnostiquer les maladies avec plus de précision. Les cliniciens feront appel aux LLMs médicaux pour élaborer des plans de traitement personnalisés et suivre les progrès des patients.
Les LLMs vont révolutionner la façon dont les consommateurs et les patients naviguent dans leur santé et dans les systèmes de santé. En fournissant des informations, des recommandations et un soutien personnalisés, les LLMs peuvent permettre aux patients et aux consommateurs d'assumer une plus grande responsabilité dans leur bien-être et de faire des choix éclairés en ce qui concerne leurs soins de santé.
Les LLMs pourraient révolutionner les soins de santé de plusieurs façons :
- Éducation à la santé personnalisée
-
Les LLMs fournissent aux consommateurs et aux patients une éducation personnalisée sur leur état de santé, les options de traitement et les stratégies de prévention. L'IA générative peut être utilisée pour créer des vidéos éducatives personnalisées permettant aux cliniciens d'adapter l'éducation aux besoins, à la langue et aux préférences spécifiques de l'individu.
- Aide à la décision médicale
-
Les consommateurs et les patients qui utilisent une appli chatbot LLM peuvent aider à faire des choix éclairés concernant leurs soins de santé. Le chatbot peut effectuer des comparaisons de produits ou de plans de diverses alternatives de traitement, et expliquer les avantages et les inconvénients de chaque option en utilisant une variété de modalités comme la vidéo. Cela se produirait lors de la délivrance de conseils médicaux ou de conseils cliniques, car le chatbot ne ferait qu'organiser et résumer des données et des contenus déjà facilement disponibles et fournis au patient. Le chatbot fonctionne comme un outil permettant de comprendre le contenu.
- Aide à la navigation
-
Les LLMs aident les consommateurs et les patients à naviguer dans le système de santé complexe pour trouver des prestataires qualifiés, prendre rendez-vous et comprendre la couverture d'assurance. L'utilisation d'un chatbot pour parcourir Internet (par exemple, ratemds.com, vitals.com, healthgrades.com ou Yelp) afin de trouver et de résumer les avis des patients sur un prestataire ou un clinicien spécifique pourrait s'avérer cruciale pour la santé d'une personne. Bien que ces avis soient subjectifs, un outil comme un chatbot, qui résume ces données, permet à un consommateur de faire un choix plus éclairé.
- Soutien émotionnel
-
Les LLMs soutiennent la santé émotionnelle des consommateurs et des patients. Les LLMs peuvent écouter les préoccupations, offrir des encouragements et mettre les patients en contact avec d'autres personnes confrontées à des défis similaires. La nature conversationnelle encouragée par les LLMs offre l'opportunité d'un dialogue qui soutient et responsabilise les consommateurs et les patients.
Les LLMs changeront le paysage actuel de la personnalisation auquel les patients et les consommateurs sont confrontés, ce qui conduira à une personnalisation accrue des soins de santé. Il s'agira notamment d'une aide au coaching, qui fournira des informations et des recommandations plus individualisées. Les LLMs pourraient permettre aux patients et aux consommateurs d'être plus responsables de leur santé et de leur bien-être en prenant des décisions bien informées sur leur santé.
Le choix d'un chatbot alimenté par des LLM réside dans la puissance de l'IA conversationnelle permise par les LLM.15 Quelques exemples de chatbots alimentés par des LLM dans la pratique pourraient inclure l'un ou l'autre des éléments suivants :
-
Une personne souffrant de problèmes de santé chroniques pourrait utiliser un chatbot doté d'une capacité alimentée par la LLM pour suivre et documenter ses symptômes, l'aider à gérer ses prescriptions et lui fournir des informations sur mesure sur la façon de bien vivre.
-
Une patiente en phase terminale confrontée à un choix - se faire opérer ou non - pourrait utiliser un chatbot LLM pour quantifier les risques et les avantages de chaque option et obtenir des conseils adaptés à son propre niveau d'aversion au risque, en guise de contribution à une conversation avec son médecin.
-
Le soignant d'un patient atteint d'une maladie chronique, par exemple, pourrait utiliser un chatbot alimenté par LLM pour coordonner les rendez-vous et les soins entre plusieurs prestataires, fournir des explications et un contexte à ce que les prestataires ont dit, et aider à naviguer dans les décisions.
Dans chacun de ces exemples, un chatbot alimenté par la LLM offre certains avantages par rapport à une approche générique d'apprentissage automatique.
- Compréhension du langage naturel
-
Nous avons déjà mentionné à quel point les LLMs sont doués pour la compréhension du langage naturel, qui à son tour donne du pouvoir à la saisie en langage naturel à consonance humaine (par exemple, poser des questions sur les symptômes avec nos propres mots), ce qui est plus intuitif et accessible par rapport au remplissage d'un formulaire structuré ou à la recherche par mot clé.
- Connaissance du contexte
-
Les LLMs peuvent retenir le contexte au cours d'une conversation et comprendre comment les éléments d'information se rapportent les uns aux autres, ce qui permet au chatbot de fournir des réponses plus informatives et moins répétitives ou méandreuses aux questions du patient. Le bot peut ensuite suivre l'évolution de ses réponses au cours de son interaction avec le patient, en se basant sur le contexte des déclarations initiales du patient décrivant ses symptômes, les médicaments qui lui ont été prescrits et les facteurs liés à son mode de vie.
- Soutien personnalisé
-
En dialoguant avec l'utilisateur et en s'informant sur ses situations et problèmes spécifiques, un chatbot alimenté par LLM pourrait offrir des conseils utiles et des suggestions adaptés à l'état de santé d'une personne ainsi qu'à son plan de traitement et à son mode de vie, ce qui pourrait être plus significatif et plus utile.
- Aide au pronostic
-
Les LLMs peuvent dériver des signaux à partir du flux d'informations qu'un utilisateur fournit au fil du temps, et synthétiser ces idées pour savoir quelles tendances se sont produites dans les dossiers du patient. Armé de toutes ces données, le chatbot pourrait, par exemple, signaler un problème à l'utilisateur ou l'orienter automatiquement vers des ressources utiles ou des soins préventifs dont l'algorithme pense qu'il pourrait bénéficier, dans le but ultime d'améliorer les résultats en matière de santé.
- Soutien émotionnellement intelligent
-
Les LLMs peuvent être formés pour communiquer d'une voix compréhensive et encourageante. Les personnes qui se débattent avec les défis quotidiens de la maladie chronique peuvent bénéficier d'un partenaire de conversation qui les aide à rester motivées et à préserver leur santé mentale.
- Évolutivité
-
La plupart des modèles de ML nécessitent une formation explicite aux nuances de chaque nouvelle tâche ou capacité que tu souhaites leur faire exécuter. Cependant, comme les LLMs peuvent adapter efficacement leur connaissance déjà générale du langage pour prendre en charge même des types de tâches assez différents sur des domaines thématiques assez différents, il devient plus facile de faire évoluer et d'adapter le chatbot pour gérer des besoins d'utilisateurs plus divers et pour étendre l'étendue et la profondeur de sa base de connaissances au fil du temps.
Par ailleurs, un modèle de ML sur mesure pourrait s'appuyer sur des entrées de données moins structurées et une logique plus simple, et pourrait ne pas offrir beaucoup de soutien ou un contexte plus large. Ceci, à son tour, pourrait signifier moins de personnalisation pour l'utilisateur, un champ d'application plus étroit et moins profond pour l'assistance, et plus de travail au fil du temps pour construire et maintenir.
Par exemple, un bot piloté par un LLM n'a pas besoin d'une définition de la douleur mentale ou d'une classification fonctionnelle. Cela suggère que les LLMs peuvent fonctionner sans catégories ou définitions rigides et prédéfinies, ce qui permet des interactions plus souples et plus nuancées. Cependant, il mettrait en œuvre ses propres capacités - y compris certains des avantages de l'interaction en langage naturel, de la compréhension contextuelle et de l'intégration des connaissances "profondes" - pour fournir un type d'assistance large et personnalisée qui semble prometteur pour aider les personnes souffrant de problèmes de santé chroniques.
Les LLMs contribueront à égaliser l'accès aux soins de santé. Les patients et les consommateurs seront en mesure de rechercher et d'accéder à des informations et des conseils de meilleure qualité en matière de santé. Les professionnels de la santé et le système de santé dans son ensemble seront mieux à même d'aider les patients à réaliser leur potentiel de bien-être.
Le but n'est pas simplement que les LLMs puissent faire des choses à notre place. Nous pouvons utiliser les LLMs et l'IA générative pour nous permettre d'être en meilleure santé et plus heureux. Dans la section suivante, nous esquisserons certaines de ces futures apps ou applications.
Promesses et possibilités des LLMs dans le domaine de la santé
Huit millions de personnes meurent chaque année dans le monde alors qu'elles auraient vécu si elles avaient eu un meilleur accès aux soins de santé.16 La médecine et les soins de santé sont à l'aube d'un tsunami de changement alors que les LLMs et l'IA générative transforment fondamentalement la médecine. Les LLMs formés sur de grandes données médicales et de soins de santé liées à des percées de pointe en matière d'intelligence artificielle faciliteront une forme personnalisée de soins de santé.
Le couplage des connaissances capturées dans leur corpus de formation avec les données du dossier d'un patient a le potentiel de faire progresser de façon spectaculaire les systèmes d'aide à la décision clinique et, en fin de compte, d'améliorer les soins et les résultats pour les patients. Les LLMs peuvent aider les médecins à poser des diagnostics plus précis, à identifier le meilleur traitement et même à prédire le pronostic du patient.
Dans un avenir où les LLMs auront été intégrés aux systèmes d'aide à la décision clinique, les médecins pourraient avoir accès à une réserve presque inépuisable de connaissances médicales sur le lieu des soins. Avec de tels outils, les médecins pourraient être en mesure de réduire les erreurs médicales. Les LLMs créés pour aider les cliniciens qui pourraient eux-mêmes être au bord de l'erreur à s'éloigner du danger.
Les LLMs pourraient fournir aux cliniciens un degré de soins en temps réel qui n'a jamais existé auparavant, en suivant les notes médicales dans les DSE, les données des appareils à domicile et les informations saisies par les patients sur les plateformes numériques. Cette approche pourrait créer un système d'alerte précoce des symptômes, des signes et des résultats des tests de laboratoire suggérant une aggravation de la maladie. En identifiant les problèmes de santé à un stade précoce, les LLMs offrent une grande opportunité en aidant à prévenir l'apparition de maladies chroniques, qui peuvent nuire à la qualité de vie liée à la santé des patients et entraînent souvent une charge financière élevée pour le système de santé.
En outre, les connaissances dérivées du LLM peuvent éclairer les approches de santé de précision, visant à optimiser la prévention primaire, secondaire et tertiaire, ainsi que les interventions thérapeutiques en fonction des caractéristiques génétiques, environnementales et de mode de vie de chaque patient. En conséquence, la santé de précision pourrait être conçue pour optimiser les réponses aux traitements, accroître l'engagement des patients et l'adhésion aux régimes, et améliorer les résultats en matière de santé, tant pour les individus que pour les populations.
Compte tenu des progrès rapides des LLMs, ainsi que de leur intégration inévitable dans d'autres technologies disruptives à l'avenir, le potentiel de l'IA pour développer un système de soins de santé véritablement prédictif, préemptif et individualisé est démultiplié. Le big data pour les soins de santé et l'IA/LLM promettent de faire de la médecine préventive et préemptive la nouvelle normalité.
Au fur et à mesure que de nouvelles fonctions d'IA telles que le raisonnement agentique, la génération augmentée par la recherche et des prompts plus importants sont introduites dans les LLMs, la valeur de ces derniers augmente. Ils peuvent traiter des requêtes plus pointues et plus nuancées basées sur davantage de "données" médicales et d'autres données spécifiques au domaine, raisonner sur des scénarios hypothétiques et répondre aux questions avec des réponses qui semblent tenir compte du contexte et être personnalisées. Aujourd'hui, les cliniciens peuvent utiliser l'une des nombreuses applications pour les questions médicales, comme l'application UpToDate.17 L'adoption des LLMs peut améliorer la fonctionnalité de ces apps dans les domaines de la recherche, du résumé, de l'interface utilisateur, et plus encore.
Imagine deux scénarios de soins de santé, chacun exploitant la puissance des apps pilotées par les LLMs et l'IA générative. Ces apps à la pointe de l'IA intègrent de façon transparente l'IA conversationnelle, des fonctionnalités de recherche avancée et des capacités de résumé intelligent, révolutionnant ainsi la façon dont les patients et les consommateurs interagissent avec la technologie et accèdent à l'information. Plongeons-nous dans ces scénarios hypothétiques et explorons l'impact potentiel de ces apps alimentées par l'IA dans le domaine de la santé.
Dans le premier scénario, un couteau suisse médical est le nom d'une application grand public destinée à aider les patients et les consommateurs à s'engager dans le système de santé et à s'y retrouver. Dans le second scénario, un Sherpa médical est le nom d'une application destinée aux cliniciens et conçue pour être un compagnon ou un assistant virtuel pour un clinicien. Dans les deux scénarios, les LLMs sont formés ou augmentés avec des sources de connaissances fiables, des données cliniques, des données de pharmacie, des données de DSE, et plus encore.
L'application du couteau suisse médical pour les consommateurs
Une startup spécialisée dans l'IA présente un chatbot inédit, construit à l'aide d'un LLM spécifique au domaine médical. Le chatbot est une application de soins de santé appelée Couteau suisse médical, qui orchestre des capacités multifonctionnelles pour les consommateurs ou les patients dans des contextes de soins de santé, tels que la prise de rendez-vous chez le médecin, le résumé des antécédents d'un patient et l'écoute du dialogue entre le médecin et le patient afin de fournir un résumé clair et intelligible des instructions du médecin. Le couteau suisse médical propose également un guidage des prestataires pour aider les utilisateurs à naviguer et à identifier le prestataire optimal probable pour leur état de santé.
David, un homme de 75 ans, est amoureux de son wearable Fitbit. Sur plusieurs semaines, il reçoit à plusieurs reprises un signal détectant une fibrillation auriculaire (AFib) et contacte son médecin, qui l'oriente vers un cardiologue. David prend des médicaments contre l'hypertension et des statines pour contrôler son cholestérol. David a récemment passé un test d'évaluation du taux de calcium qui l'a placé dans une catégorie à haut risque. Son cardiologue lui recommande une ablation de la fibrillation auriculaire, mais celle-ci ne résout pas le problème. David est de nouveau hospitalisé pour recevoir un choc électrique contrôlé et une cardioversion afin de rétablir un rythme normal, mais en vain.
David se demande s'il n'y a pas une alternative à l'ablation de la fibrillation auriculaire qu'il devrait envisager. Il en parle à son médecin, qui lui conseille d'essayer à nouveau, car cet hôpital est spécialisé dans cette procédure pour traiter l'AFib. David possède l'application Couteau suisse médical sur son iPhone, un téléchargement recommandé par sa femme Ann, et décide de l'utiliser pour répondre à sa question sur les alternatives à l'ablation de la fibrillation auriculaire. L'appli Couteau suisse médical utilise un LLM spécifique à la médecine, un LLM fondateur comme Google Gemini, combiné à des données provenant du dossier médical de David, de ses antécédents médicaux et de ses informations de santé. L'application informe David d'une autre procédure, une ablation par cathéter. En montrant à David des vidéos vérifiées d'un hôpital de recherche prééminent et d'un médecin spécialisé dans cette procédure. David est intrigué et consulte son médecin, qui l'informe qu'il s'agit d'un traitement alternatif qu'il ne peut pas proposer et que David devrait contacter l'hôpital de recherche pour en savoir plus.
L'appli entame une conversation avec David au sujet de son test de scoring calcique montrant qu'il présente un risque élevé. Elle informe David qu'une tomodensitométrie cardiaque sera très probablement réalisée au centre de recherche avant l'ablation par cathéter afin d'aider son médecin traitant à anticiper les difficultés potentielles pendant l'intervention.
David utilise l'appli du couteau suisse médical pour contacter l'hôpital et prendre le premier rendez-vous téléphonique pour en savoir plus. David apprécie la conversation et se trouve éclairé, décidant de poursuivre le traitement dans cet hôpital de recherche. L'application prend le rendez-vous, réserve le vol et l'hôtel. David engage une conversation avec l'application Couteau suisse médical pour mieux comprendre les questions qu'il devrait poser. L'application suggère à David de poser les questions suivantes :
-
Quel est le meilleur plan de traitement pour moi, compte tenu de ma situation ?
-
Quelles sont les différentes options de traitement disponibles, et quels sont les risques et les avantages de chacune d'entre elles ?
-
Comment la fibrillation auriculaire affecte-t-elle mon cœur ?
-
Quel est mon risque d'accident vasculaire cérébral ?
-
Que dois-je faire si j'ai un épisode de fibrillation auriculaire ?
-
Quelles sont les implications à long terme de la vie avec la fibrillation auriculaire ?
Le développement de l'appli, par une entreprise réputée, utilise des mesures de sécurité de pointe pour protéger la vie privée des patients. La conception de l'appli tente d'éviter de mal interpréter la conversation ou de fournir des informations inexactes en :
- Utiliser un ensemble de données vaste et diversifié pour entraîner la LLM.
-
Cet ensemble de données comprend des conversations médicales. Cela permet au LLM d'apprendre les nuances du langage médical et d'éviter de commettre des erreurs.
- Utiliser les techniques de pointe de la PNL
-
Ces méthodes NLP sont utilisées pour comprendre efficacement la conversation. Cela aide ensuite le LLM à mettre le doigt sur les aspects essentiels du discours et à s'abstenir de tirer des conclusions non étayées.
- Intégrer les commentaires des médecins et des patients
-
Cette appli permet d'améliorer la précision du LLM. La boucle de rétroaction continue de l'appli permet d'identifier les domaines dans lesquels le LLM a des difficultés et de procéder aux ajustements nécessaires.
- Fournir de la transparence aux utilisateurs
-
L'appli permet aux utilisateurs de se renseigner sur son fonctionnement, et elle utilise leurs données pour les aider à comprendre les limites de l'appli et à l'utiliser de manière responsable.
L'appli du couteau suisse médical LLM rappelle à David qu'elle n'est pas un médecin et qu'elle ne peut pas fournir de conseils cliniques ou de diagnostics. Elle informe David qu'il doit demander l'avis de son médecin spécialiste de la fibrillation auriculaire avant de prendre des décisions concernant ses soins. David et sa femme parcourent 2 000 miles en avion et s'inscrivent à l'hôtel recommandé, adjacent à l'hôpital. Ils sont immédiatement impressionnés lorsque le cardiologue leur téléphone et leur demande s'il peut passer les saluer. Ce service personnel dépasse leurs attentes. Avant la rencontre avec le médecin, David ouvre l'application Couteau suisse médical pour vérifier les questions qu'il souhaite poser. L'appli demande à David s'il souhaite que l'appli écoute la conversation. David informe le médecin qu'il utilise une appli qui écoutera leur conversation et aidera David à mieux la comprendre par la suite. Le médecin sourit et dit bien sûr, et rappelle à David qu'il sera heureux de répondre à ses questions à tout moment avant ou après l'opération.
Nous sommes lundi et il est temps de faire un scanner avant l'intervention pour préparer le clamp d'ablation Isolator Synergy destiné à traiter la fibrillation auriculaire de David. La tomodensitométrie révèle un blocage important de ses artères principales et le cardiologue avertit David qu'il court un risque élevé de crise cardiaque, à tel point qu'il doit subir immédiatement une opération à cœur ouvert en raison de ce blocage.
David commence à converser avec son application Couteau suisse médical, en demandant si ses médecins locaux auraient dû découvrir ce blocage. L'application informe David que des tests supplémentaires n'étaient peut-être pas justifiés, car il n'avait signalé aucun symptôme. Elle lui conseille également de poser la question à son cardiologue traitant et à son médecin local lorsqu'il en aura le temps.
Sans l'utilisation de l'application Couteau suisse médical, David serait resté uniquement engagé auprès de son cardiologue local, ignorant qu'il courait un risque élevé de crise cardiaque. Bien que ce soit peut-être simplement fortuit, David n'aurait jamais subi le scanner montrant un blocage sévère s'il n'avait pas demandé une ablation par cathéter.
David est entré dans ce qui devait être une opération de trois à quatre heures, mais qui a plutôt duré six heures. Le médecin termine l'opération et explique à Ann, la femme de David, ce qui s'est passé. Il dit que la raison pour laquelle l'opération de David a duré plus longtemps est qu'il présentait une anomalie physique, faisant passer le sang de ses poumons à son cœur d'une manière que le médecin n'avait jamais vue ou que quelqu'un qu'il connaît n'avait jamais expérimentée.
Le médecin souligne qu'il fait cela depuis des décennies, qu'il travaille même avec des bébés atteints de cardiopathies congénitales et d'anomalies à la naissance, et qu'il n'a jamais rien vu de tel. Il leur a fallu du temps pour essayer d'aller au fond des choses, et au lieu d'utiliser une seule pompe pour recycler le sang, ils en ont fait fonctionner trois, ce qui n'était pas suffisant.
Nous nous en voudrions de ne pas mentionner pourquoi Ann a eu une telle confiance dans l'appli médicale couteau suisse LLM. On lui avait diagnostiqué une leucémie CLL quatre ans plus tôt. Elle avait rendez-vous avec un oncologue un lundi et a reçu un appel de sa fille le jeudi précédent. Sa fille était une utilisatrice active de l'application médicale Couteau suisse. L'application suggérait que sa mère obtiendrait les meilleurs résultats dans un hôpital de recherche sur le cancer plutôt que dans l'hôpital local où elle avait prévu de se faire soigner. Sa mère n'était pas très enthousiaste à l'idée de reporter son rendez-vous, car elle aimait bien son oncologue et l'hôpital local était à une courte distance en voiture par rapport à l'hôpital de recherche. Mais elle a cédé, a annulé son rendez-vous et a pris rendez-vous avec un oncologue à l'hôpital de recherche.
L'hôpital de recherche avait un plan de traitement légèrement différent, qui comprenait un médicament récemment mis sur le marché par la FDA, IMBRUVICA®. Ann a été plutôt satisfaite des résultats et trouve actuellement son cancer en rémission. Elle attribue le mérite à sa fille et à l'application qui l'a orientée vers un établissement de soins produisant de meilleurs résultats contre la leucémie LLC. Ann a compris que les résultats cliniques pouvaient différer radicalement en fonction du prestataire, et elle est ravie d'avoir pu mettre son mari, David, en contact avec un expert du traitement de la fibrillation auriculaire. Elle croit fermement que cela a sauvé la vie de son mari. Ce n'est un secret pour personne que les établissements médicaux qui ont publié les résultats de leurs recherches ont obtenu des scores élevés de satisfaction des patients et ont affiché des taux de mortalité réduits pour toute une série d'affections et d'interventions médicales.18
En exploitant des données expansives sur les résultats cliniques des prestataires, l'appli Couteau suisse médical, alimentée par un LLM, peut mettre en relation des patients individuels avec les médecins statistiquement prêts à fournir le traitement le plus efficace pour le profil de l'affection particulière du patient et ses facteurs de risque.
Application Medical Sherpa pour les cliniciens
Le docteur Davis était médecin de premier recours depuis plus de 20 ans et avait tout vu. Mais lorsque son patient, John, s'est présenté pour un examen médical de routine, le docteur Davis a remarqué quelque chose qui l'a fait réfléchir. John avait une petite bosse sur le côté de sa gorge. "John", dit le docteur Davis. "J'aimerais regarder de plus près cette grosseur sur ta gorge". John a acquiescé, alors le docteur Davis a palpé la grosseur avec ses doigts détendus et a froncé les sourcils. La grosseur était ferme et fixe, et elle ne bougeait pas sous la légère pression des doigts. "Je suis inquiet, dit le docteur Davis, car cette grosseur pourrait être un cancer." Il poursuit : "Je vous recommande de consulter immédiatement un spécialiste pour plus de sûreté." John avait l'air inquiet. "Mais je ne me sens pas malade", a-t-il dit. "Je n'ai aucun symptôme".
"Le cancer peut souvent être asymptomatique à un stade précoce", ajoute le Dr Davis. À contrecœur, John a accepté de consulter un spécialiste. Le Dr Davis a consulté son Medical Sherpa, une appli de diagnostic LLM capable de passer au crible des montagnes de connaissances factuelles.
Le docteur Davis a décrit la grosseur à son Sherpa médical. L'application lui a répondu avec plusieurs suggestions, notamment en demandant une biopsie par aspiration à l'aiguille fine (FNA) - un moyen peu invasif d'extraire un échantillon de cellules de la grosseur - et en dirigeant John vers un oto-rhino-laryngologiste, le bon spécialiste pour diagnostiquer et traiter les affections de l'oreille, du nez et de la gorge.
Suivant les conseils du sherpa médical, le docteur Davis a demandé une biopsie FNA pour John. Il a également envoyé John chez un oto-rhino-laryngologiste. Quelques jours plus tard, les résultats de la biopsie FNA se sont révélés positifs pour le cancer. Le docteur Davis a appelé John, lui délivrant un choc asymétrique d'informations : "Je suis désolé de te dire que tu as un cancer, mais nous l'avons détecté tôt, et tu peux encore recevoir une thérapie. Est-ce que ça irait," a demandé le Dr Davis à John, "si mon sherpa médical t'aidait à prendre rendez-vous avec l'oto-rhino-laryngologiste pour discuter de tes options de traitement ?"
Medical Sherpa est une application LLM orientée vers les cliniciens, qui est généralement utilisée par les médecins à la recherche d'une consultation. Les consultations dans les couloirs, les ascenseurs ou les trottoirs sont une pratique assez courante en médecine. Une application Medical Sherpa est par essence une consultation, bien que brève et informelle, entre un clinicien et un LLM. L'utilisation du nom "sherpa" est appropriée car, à l'instar des guides qui aident les alpinistes à gravir le mont Everest, le sherpa médical aidera les cliniciens à naviguer sur un terrain médical complexe. Les LLMs sont envisagés comme des assistants virtuels exerçant aux côtés des médecins, offrant des points de vue et accomplissant des tâches. Cependant, une composante essentielle de l'humain en médecine est la main directrice du jugement clinique.
Les sherpas médicaux ont des raisons générales de faciliter des soins meilleurs et plus sûrs, ainsi que des avantages spécifiques pour les cliniciens. Par exemple, lorsque les médecins travaillent avec leurs sherpas, ils obtiennent des connaissances de proximité qui ne sont pas disponibles lorsqu'ils s'appuient sur des données et des analyses à distance. De même, le sherpa des infirmières, étant au chevet du patient, est mieux à même de fournir un soutien et des conseils en temps réel par le biais d'une communication omniprésente, ce qui permet à l'infirmière de prendre des décisions plus éclairées.
De plus, les sherpas médicaux peuvent aider les prestataires à augmenter leur productivité en leur faisant gagner du temps. Grâce à un accès rapide et facile à la consultation et à l'assistance, les médecins et les infirmières peuvent utiliser le temps gagné pour concentrer leur attention sur d'autres aspects essentiels de leur travail, ce qui pourrait contribuer à améliorer les résultats des soins de santé.
De plus, en réduisant l'épuisement des prestataires, qui est désormais reconnu comme un problème grave dans le domaine de la santé, les sherpas médicaux permettent aux cliniciens de passer plus de temps à s'occuper des patients et moins de temps à former de nouveaux apprenants pour chaque cas. Le fait d'avoir une personne ayant une expérience continue de cette forme de soins peut faire une énorme différence au niveau de l'expérience et de la confiance des cliniciens ici à la maison. Ensemble, ces avantages peuvent conduire à une meilleure qualité de soins pour les patients et à un système plus durable pour l'avenir.
Les caractéristiques émergentes des LLMs
Les applications alimentées par LLM occupent un espace intéressant entre une vision alléchante de l'avenir et une série décourageante d'obstacles à surmonter. Nous sommes très proches d'un avenir où les systèmes basés sur le LLM pourront s'attaquer à des tâches de plus en plus complexes, libérer les impulsions créatives de l'humanité dans de nouvelles directions et changer fondamentalement la façon dont nous interagissons avec le monde qui nous entoure. Mais d'abord, nous devons progresser sur les frontières techniques concernant les données, la performance, la stabilité et la sécurité.
Il y a un côté humain à tout cela, en plus de l'infrastructure technologique. Il y a des questions liées aux préoccupations en matière de protection de la vie privée autour des LLMs avides de données. Les préjugés, intégrés dans les données de formation, créent le besoin d'une surveillance continue et de stratégies d'atténuation proactives pour empêcher la reproduction des préjugés et des préjudices dans les milieux de soins de santé.
Cela signifie que même si nous n'avons pas encore atteint notre destination et que la technologie en elle-même ne nous y mènera pas, nous avançons à petits pas. La réflexion sociale, éthique et conceptuelle sera vitale pour mettre à l'échelle les approches de conception responsable, faire des LLMs des outils permettant d'améliorer l'efficience et l'efficacité des médecins et les interactions patient-médecin, tout en évitant qu'ils ne deviennent des outils d'exclusion et de préjudice.
Les facteurs de forme actuels des capacités des applications basées sur le LLM offrent une large utilité pour les soins de santé, avec le potentiel de fournir une commodité d'assistance dans les modes de vie des consommateurs et les opérations de soins de santé. De la vérification des symptômes sur nos smartphones à l'aide à la décision clinique en cabinet, les cas d'utilisation des LLM amplifient le potentiel d'amélioration des soins de santé à de nombreux points du spectre des interactions patient-médecin.
Même si la véritable innovation qui change la donne reste juste au-delà de l'horizon, nous pouvons constater aujourd'hui que l'IA est déjà en train de remodeler les espaces cliniques et les technologies de santé grand public pour améliorer l'efficacité du flux de travail et les soins aux patients. Le livre AI-First Healthcare19 a documenté de nombreux exemples de la façon dont l'IA améliore les soins de santé. Les LLMs font franchir une nouvelle étape à l'IA, et la prise de notes automatisée, les chatbots conversationnels et les tâches de résumé ne sont que le début.
Plus que toute autre technologie émergente, les LLMs promettent une augmentation continue des avantages sociaux - rendre les systèmes existants conscients des trous dans les soins des infirmières, réorienter les arbres de décision, et maximiser les résultats pour chaque patient grâce à l'autonomisation à la fois du prestataire et de l'acheteur. Ce traitement optimiste de notre avenir commun est rendu possible par l'arrivée des LLMs dans nos vies, qu'il s'agisse de consommateurs ou d'entreprises.
Des changements passionnants sont prévus dans un avenir proche pour les LLMs, qui comprennent l'expansion des fenêtres d'invite ou ce que l'on appelle les fenêtres contextuelles. La taille de la fenêtre continue de s'étendre, et les chercheurs travaillent sur un prompt qui permet une taille fonctionnellement infinie.
Des prompts en contexte infini
Les LLMs dotés de fenêtres contextuelles étendues ou illimitées peuvent désormais traiter simultanément des données textuelles, audio et vidéo. Cette avancée ouvre des possibilités nouvelles et améliorées pour les prestataires de soins de santé, les plans de santé et les payeurs. Elle est intéressante pour les cliniciens car elle pourrait renforcer les consultations des patients en analysant divers types de données en temps réel. Voici quelques-unes des façons dont cette amélioration de l'IA pourrait transformer les soins de santé :
-
Les LLMs ayant accès à la littérature médicale, aux notes cliniques et aux directives peuvent offrir aux cliniciens des recommandations fondées sur des preuves au point de service pour le diagnostic, le traitement et la planification des soins en temps réel. Cependant, comme pour les humains, il peut y avoir une pause (c'est-à-dire une latence) dans la réponse, en fonction de la complexité du prompt. En évaluant les données des patients parallèlement à la littérature médicale et aux meilleures pratiques cliniques, les LLMs pourraient aider les cliniciens à réduire les erreurs médicales et à améliorer la prise de décision afin d'améliorer les résultats pour les patients.
-
Les modèles capables de comprendre et de générer du texte, de l'audio et de la vidéo à consonance naturelle peuvent permettre des interactions plus significatives entre les patients et les cliniciens au-delà des barrières linguistiques. Les LLMs pourraient aider à transformer des informations médicales complexes en textes polyvalents à consonance naturelle qui peuvent être compris par une plus grande variété de patients, répondre aux questions courantes, offrir une éducation nuancée aux patients qui peut être personnalisée pour répondre aux besoins individuels, et encourager une intervention précoce. Ces interactions pourraient alors améliorer l'engagement, l'adhésion et la satisfaction des patients à l'égard des soins.
-
Différents LLMs pourraient aider à automatiser la paperasserie et la documentation clinique, y compris le codage et la facturation, rationalisant ainsi les processus de soins de santé et libérant les prestataires du fardeau de l'administration afin qu'ils puissent passer plus de temps cliniquement en "face à face" avec les patients. Aujourd'hui, des entreprises comme Google proposent une technologie qui permet d'utiliser les LLMs pour résumer un e-mail avec une vidéo intégrée. Imagine ce que cela donnerait lorsque le flux d'entrée n'est pas limité par une taille fixe.
-
Les modèles qui peuvent analyser l'audio et la vidéo en temps réel amélioreraient l'efficacité et l'efficience des services de télémédecine et de télésurveillance, en aidant aux consultations à distance.
-
Grâce à leur capacité à analyser et à synthétiser des quantités massives de littérature et de données biomédicales, notamment des publications scientifiques, des données d'essais cliniques et des dossiers de patients, les LLMs peuvent accélérer la recherche médicale et la découverte de médicaments. Les cliniciens pourraient gagner du temps grâce au pouvoir qu'offre le LLM de résumer des données d'essais cliniques ou des notes de patients s'étalant sur plusieurs années.
-
Les LLM pourraient permettre la médecine personnalisée et les soins de santé de précision en offrant des soins sur mesure à chaque patient en fonction de ses caractéristiques uniques (par exemple, sur la base du profilage génomique, du mode de vie et des données relatives aux antécédents médicaux) afin d'identifier les facteurs de risque personnalisés, la trajectoire de la maladie, ainsi que les interventions thérapeutiques et les traitements. Une approche plus personnalisée des soins, potentiellement permise par les LLMs, pourrait accroître l'efficacité et l'efficience de la prestation des soins de santé en optimisant les résultats pour les patients.
La promesse de soins de santé personnalisés serait un grand pas en avant. Les LLMs avec des fenêtres contextuelles ou des prompts infinis pourraient traiter et stocker de grandes quantités de littérature médicale, de données d'essais cliniques, d'antécédents médicaux des patients et de données cliniques, ce qui permettrait de créer une base de connaissances médicales complète et actualisable pour un patient ou un consommateur. Les chatbots alimentés par de tels LLMs s'étendraient à des conversations multitours plus complexes, créant ainsi des expériences intuitives et engageantes pour les consommateurs. L'ancien PDG de Google, Eric Schmidt, considère que l'expansion des fenêtres de prompt infini se produira dans les cinq prochaines années.20
Raisonnement agentique
Le raisonnement agentique représente une autre évolution de l'IA où les systèmes peuvent agir de façon autonome. Andrew Ng, informaticien et chercheur en IA, offre des perspectives intéressantes sur la nature du raisonnement agentique et décrit quatre caractéristiques ou schémas clés du raisonnement agentique que nous allons explorer dans ce chapitre : les schémas de réflexion, l'utilisation d'outils, la planification et l'interaction multi-agents.
"Le raisonnement agentique est au cœur de la création d'agents capables de prendre des mesures visant à atteindre des objectifs", explique Andrew Ng,21 professeur adjoint d'informatique à l'université de Stanford et cofondateur de Coursera, une entreprise qui propose des cours en ligne ouverts et massifs. Comme l'explique Ng, il s'agit de la capacité d'un système d'IA à sentir, désirer, croire et agir, et donc à fixer et modifier des objectifs, à prendre des décisions dans l'incertitude, à apprendre de ses expériences et à interagir et raisonner avec des humains et d'autres agents d'IA de manière naturelle et efficace. Le défi que représente le raisonnement agentique parmi les agents d'intelligence artificielle, souligne-t-il, exige des avancées significatives dans de nombreux domaines, tels que l'apprentissage automatique, le langage naturel, la représentation des connaissances et le raisonnement dans l'incertitude.
Les quatre modèles de raisonnement agentique
Le modèle de réflexion dans le raisonnement agentique aide l'IA à améliorer ses performances en se basant sur ce qu'elle a fait précédemment. Le schéma de réflexion permet à un système d'IA de santé de réfléchir à ses choix, d'identifier des moyens d'améliorer les résultats et de développer continuellement son approche des soins aux patients. Par exemple, un agent d'IA conçu pour fournir aux cliniciens des recommandations de diagnostic et de traitement pour une maladie complexe pourrait adopter le schéma de réflexion. L'agent aurait été formé au départ sur un grand ensemble de données diversifiées de dossiers de patients, de littérature et de directives cliniques, et il ferait ensuite des recommandations agentiques au clinicien en tenant compte des données prévalentes.
- Diagnostic initial et plan de traitement
-
Lorsqu'un nouveau cas de patient est soumis, l'agent analyse les symptômes, les antécédents médicaux et les résultats des tests du patient, puis fournit un diagnostic initial et un plan de traitement. L'agent utilisera ses données de formation et appliquera son raisonnement agentique à la situation, ainsi que les données modélisées sur les modules qui la composent, afin de déterminer quelle est probablement la véritable cause de l'état du patient et quel sera le meilleur plan de traitement.
- Réflexion sur les résultats
-
Une fois qu'un patient est soumis à un plan de traitement, l'agent d'IA surveille son parcours et ses résultats au fur et à mesure. Ce que le patient réalise sera comparé à ce que l'agent aurait prédit pour le même patient compte tenu de ses recommandations initiales. Si le patient s'améliore comme l'agent l'avait prévu, il se renforcera et deviendra plus confiant dans des cas similaires à l'avenir.
-
Mais s'il n'y a pas d'amélioration de l'état du patient ou si le résultat est autrement sous-optimal après une certaine période, l'agent d'IA examinerait pourquoi il a pris la décision qu'il a prise - en examinant ses algorithmes, les données qu'il a utilisées et les hypothèses qu'il a intégrées.
- Adaptation et apprentissage
-
Sur la base de cette analyse réflexive, l'AGI laisse le cas du patient ancrer l'ajustement qu'il doit apporter à son mode de prise de décision. Par exemple, l'AGI peut ajouter un enregistrement des résultats cliniques à ses connaissances de base, affiner un algorithme pour intégrer une nuance spécifique au patient connue empiriquement, ou réviser une liste de recommandations de traitement pour réduire les chances d'une complication connue.
-
Ce processus de formation adaptative signifie que l'agent apprend continuellement à prendre davantage de mesures qui améliorent son comportement à long terme et donc, en fin de compte, à faire de meilleures recommandations - réduisant les risques d'erreurs et prompt à apporter des remèdes plus appropriés. Lorsqu'il a rencontré plus de patients et qu'il s'est engagé dans ce processus de post-action, il peut diagnostiquer et traiter des problèmes médicaux plus compliqués.
- Partage des connaissances et apprentissage collaboratif
-
Ces connaissances peuvent être partagées entre les agents d'IA et les experts humains grâce aux réflexions qu'ils acquièrent, améliorant ainsi le coapprentissage et les connaissances entre les humains et les agents d'IA. Par exemple, plusieurs agents d'IA peuvent travailler en collaboration pour reconnaître des modèles et générer de nouvelles stratégies de traitement et des soins affinés aux patients à grande échelle.
-
L'agent d'IA peut fournir un retour d'information aux médecins humains, en leur indiquant les endroits où ils doivent mettre à jour leur pratique clinique ou avoir besoin d'efforts de recherche supplémentaires. En engageant ce type de dialogue homme-machine, nous pouvons en fin de compte améliorer la nature hybride du travail entre les humains et les machines.
-
La structure réflexive du raisonnement agentique permet aux agents d'IA travaillant dans le domaine de la santé d'apprendre de leurs expériences, d'ajuster leurs stratégies et d'améliorer continuellement leur capacité à diagnostiquer et à traiter les patients. Grâce à un processus continu de réflexion et d'apprentissage collaboratif avec des experts humains, les agents d'IA peuvent devenir un complément aux soins humains, en améliorant la qualité, l'efficacité et l'efficience de la prestation des soins de santé. Il est impératif que le processus de réflexion soit correctement dirigé et informé par des principes éthiques robustes, et qu'une supervision humaine soit toujours en place afin de prévenir les négligences imprévues et de maintenir les normes de soins les plus élevées.
Le modèle d'utilisation d'outils dans un raisonnement agentique permet aux agents d'IA d'exploiter des outils et des ressources externes de manière générale, en allant au-delà de l'apprentissage automatique, de la vision par ordinateur ou du NLP pour élargir leur champ de résolution de problèmes et leur processus de prise de décision en exploitant des ressources externes et des capacités de connaissance. Pour la médecine, le modèle d'utilisation d'outils peut permettre aux systèmes d'IA d'"emprunter" des ressources médicales via l'incorporation d'outils médicaux existants, de bases de données, de services et de tous les autres intrants externes, tels que les professionnels médicaux comme les infirmières, les médecins, les soignants, et d'autres. Ces apports peuvent fournir des soins aux patients fondés sur des principes et centrés sur l'humain, basés sur un savoir-faire clinique actualisé et une prise de décision professionnelle, plutôt que de confiner les systèmes d'IA à une prise de décision "boîte noire" qui s'appuie exclusivement sur des exemples d'apprentissage automatique. Examinons la médecine de précision et illustrons comment le modèle d'utilisation des outils peut être appliqué.
Un agent d'IA dans le domaine de la santé aide les médecins à élaborer des plans de traitement individualisés pour leurs patients atteints de cancer. Pour ce faire, l'agent utilise le raisonnement agentique pour analyser les données du patient et trouver des options de traitement optimales que le patient peut suivre, et l'agent surveille également l'évolution du traitement. Afin d'améliorer encore ses recommandations de traitement, l'agent emploie le modèle d'utilisation d'outils pour accéder à des ressources et des services externes et également les combiner.
- Outils d'analyse génomique
-
Un agent d'IA exploite la boîte à outils d'analyse génomique pour collecter les informations génétiques du patient et leur donner un sens. Armé de bases de données de variantes génomiques et de leurs implications cliniques connues, il peut identifier les facteurs de risque génétiques potentiels, suggérer des réponses médicamenteuses probables et prescrire une thérapie ciblée en fonction du profil moléculaire individuel du patient.
- Services d'imagerie médicale
-
Les services d'imagerie médicale - tels que les API de vision par ordinateur - sur lesquels l'agent d'IA s'appuie analysent les scanners des patients (IRM, scanner ou TEP) pour détecter et caractériser la présence et la forme des tumeurs, ainsi que les effets du traitement et la progression de la maladie. Ces informations, combinées à celles provenant d'autres données du patient, alimentent l'évaluation globale de l'état du patient par l'agent d'IA.
- Systèmes de dossiers médicaux électroniques (EHR)
-
L'utilisation des systèmes de DSE pour accéder aux diagnostics, traitements et résultats antérieurs du patient aidera l'agent d'IA à élaborer une approche plus précise du traitement proprement dit. Par exemple, plutôt que de consulter le DSE de ce patient en particulier, il peut consulter les DSE d'autres patients pour avoir une vision plus complète de l'état de santé du patient et potentiellement identifier les facteurs de risque ou les comorbidités, qui peuvent influer sur la sélection du régime de traitement. En ayant accès aux données d'un système intégré de DSE et d'autres hôpitaux connexes, l'agent d'IA sera en mesure de générer un plan de soins plus personnalisé et des décisions connexes.
- Bases de données d'essais cliniques
-
L'agent IA recherche dans les bases de données d'essais cliniques des essais en rapport avec l'état de santé du patient, puis examine les critères d'admissibilité aux essais, les données sur la façon de traiter les participants et les données sur les résultats. Cela permet à l'agent d'IA de faire une recommandation sur les essais auxquels un patient pourrait avoir intérêt à participer ou d'utiliser les données des essais pour ses recommandations sur le traitement.
- Vérificateurs d'interactions médicamenteuses
-
L'agent d'intelligence artificielle utilise des vérificateurs d'interactions médicamenteuses pour évaluer les traitements anticancéreux proposés en fonction des interactions potentielles avec les médicaments actuels du patient. Il recommande ensuite d'autres médicaments ou des changements de dosage en fonction des résultats, afin de minimiser les effets indésirables ou les contre-indications tout en maximisant l'efficacité.
Grâce à ces outils et services, l'agent d'IA peut alors proposer aux médecins une approche intégrée vers la médecine de précision en compilant les données pertinentes provenant de différentes sources et en fournissant des conseils de traitement personnalisés vérifiés par des graphes de connaissances et des notations probabilistes. Cette approche est réalisable parce que l'agent peut parcourir des journaux, rechercher des textes médicaux, télécharger, stocker des images et intégrer des données disparates de manière probabiliste. Il peut utiliser les antécédents médicaux du patient, les données génétiques et les données d'imagerie pour suggérer des thérapies appropriées, y compris des prescriptions potentielles, basées sur des interactions médicamenteuses moins connues.
De plus, comme l'agent d'IA prend certaines décisions concernant les nouvelles données de recherche, les directives cliniques et les voies de traitement nouvelles ou non testées, le profil d'utilisation des outils de l'agent est largement auto-actualisé, c'est-à-dire qu'il change en fonction de l'évolution des schémas de découverte des cancers humains. L'agent utilisera donc les connaissances les meilleures et les plus récentes disponibles.
Et à mesure que le domaine du raisonnement agentique se développe dans le domaine de la santé, ce modèle d'utilisation des outils en viendra à jouer des rôles importants dans la construction de systèmes d'IA capables de capturer, de combiner et de traiter de grandes quantités de données médicales diverses nécessaires à la médecine de précision pour fournir de meilleurs soins aux patients - tant que les services utilisés en externe pour obtenir ces résultats respectent des règles robustes en matière de confidentialité des données, de sécurité et d'éthique afin de préserver la vie privée des patients et l'intégrité du système de soins de santé.
Le modèle de planification du raisonnement agentique est essentiel pour donner aux agents de l'IA la capacité d'élaborer des plans de haut niveau afin d'atteindre leurs objectifs et d'optimiser les processus. Cela signifie que, dans le domaine de la santé, un système d'IA doté d'une capacité de planification pourrait être utilisé pour travailler sur le cas détaillé d'un patient, anticiper les résultats potentiels et décider du meilleur plan de traitement avant de le créer - en intégrant un large éventail de facteurs et de paramètres. Prenons par exemple le scénario d'un agent d'IA conçu pour aider les médecins à gérer les patients atteints de maladies chroniques, comme le diabète, l'hypertension ou les maladies cardiovasculaires. Dans ce cas, l'agent utilise le raisonnement agentique pour analyser les résultats d'un examen physique, séquencer les symptômes qui apparaissent, identifier les facteurs qui exposent le patient à un risque d'aggravation de son état de santé, puis créer des recommandations stratégiques et adaptatives pour obtenir des résultats à long terme en matière de santé.
- Fixation des objectifs et décomposition des problèmes
-
L'agent d'IA part d'un objectif abstrait d'optimisation des résultats de santé et de la qualité de vie du patient, et le décompose en sous-objectifs plus petits et plus spécifiques : maintenir la glycémie du patient dans une fourchette optimale, réduire la pression artérielle à un niveau plus sûr, minimiser le risque d'amputation ou de complications rénales, et ainsi de suite. En décomposant le problème global en sous-problèmes distincts, l'agent peut formuler et poursuivre des actions adaptées à chaque aspect particulier de l'état du patient.
- Analyse des données et évaluation de la situation
-
Ensuite, l'agent d'IA essaie de refléter l'ensemble de la situation médicale du patient en fonction de son contexte. Il prend en compte les antécédents médicaux, l'état de santé actuel et le contexte environnemental du patient, ainsi que ses habitudes de vie et toute idiosyncrasie identifiable. Cela inclut la capacité d'intégrer des données provenant des DSE, des wearables et des résultats rapportés par les patients.
- Génération et évaluation de plans
-
À partir de cette évaluation de la situation, l'agent d'intelligence artificielle génère différents plans de traitement possibles qui répondent aux sous-objectifs définis. Par exemple, il peut en inclure un qui implique une combinaison différente d'ajustements de médicaments, de changements de mode de vie et d'orientation vers des spécialistes. L'agent évalue chaque plan en tenant compte de l'efficacité et des effets secondaires prévus, des préférences et de l'acceptation du patient, des ressources disponibles, et ainsi de suite, en utilisant des données connues et des prédictions probabilistes avant de décider du plan d'action à recommander.
- Sélection et adaptation des plans
-
L'agent IA choisirait le plan de traitement le plus avantageux à son avis, en mettant en balance les avantages et les risques du traitement. Il communique ensuite le plan choisi, avec justification à l'appui, au médecin et au patient, peut-être aussi avec des instructions ou un soutien pour la mise en œuvre des recommandations.
-
Alors que le médecin conçoit le plan de traitement, l'IA surveille le déroulement du plan et examine les résultats. Si l'état du patient ne suit pas la trajectoire prévue, l'agent refait le plan. Le traitement devient réactif aux nouvelles informations, comme la modification des doses de médicaments ou l'introduction de différentes interventions ou recommandations de mode de vie.
- Contrôle et perfectionnement continus
-
L'agent IA vérifie ultérieurement auprès de la patiente comment elle s'en est sortie et si le plan de traitement est utile ou nécessite un ajustement. Il est également à l'affût des risques et des événements indésirables liés aux effets secondaires. Lorsqu'il peut identifier des schémas dans les données du patient et les comparer à la trajectoire de cas similaires, l'agent peut modifier ses stratégies de planification pour mieux se prémunir contre les problèmes de santé émergents.
-
Cette structure de planification du raisonnement agentique peut aider les agents d'intelligence artificielle dans le contexte des soins de santé à élaborer des stratégies exécutives et dynamiques de gestion des soins pour les maladies chroniques. L'agent d'intelligence artificielle décompose les problèmes de santé complexes en sous-objectifs significatifs, exécute des procédures d'achèvement de modèles en utilisant les données disponibles sur le patient, réfléchit à des options d'alimentation et d'élimination, fournit une analyse des conséquences attendues, et surveille et ajuste lui-même sa stratégie. De cette façon, l'agent d'IA peut aider le médecin à fournir des soins personnalisés et fondés sur des preuves en équilibrant les coûts à court terme et les avantages à long terme pour la santé.
-
Il est peu probable que le modèle de planification soit le seul modèle nécessaire à mesure que nous progressons dans le domaine passionnant du raisonnement agentique en matière de soins de santé. Mais il sera essentiel dans la création de systèmes d'IA pour aider les cliniciens dans la gestion des maladies chroniques qui constituent une part importante de la population des patients, et il les maintiendra sur la voie de l'équité des soins de santé. Nous devons protéger le processus de planification - en le guidant avec des principes éthiques, des meilleures pratiques cliniques et des valeurs centrées sur le patient pour protéger les individus contre des plans de traitement dangereux, inefficaces et inacceptables qui peuvent émerger à mesure que la charge de travail des soins de santé continue d'ajouter des tâches banales pour les cliniciens.
Le modèle de collaboration multi-agents est le moyen par lequel l'architecture agentique réalise le travail collaboratif de divers agents, qu'ils soient ou non dotés d'une agence, à différents niveaux de l'ontologie agentique. La reconnaissance collective d'événements nécessite la prise de conscience et l'évaluation d'un événement par deux agents ou plus. Dans le domaine de la santé, le modèle de collaboration multi-agents est en jeu lorsque deux agents intelligents ou plus - qui peuvent être considérés comme des systèmes d'intelligence artificielle et des professionnels de santé indépendants à large portée - coordonnent leur travail, partagent la connaissance de l'état ou la perception, et prennent des décisions et des actions basées sur des objectifs ou des sous-objectifs partagés.
Imagine un patient qui souffre de toutes sortes d'affections de longue durée - diabète, hypertension, maladies cardiovasculaires, etc. - et qui a besoin de conseils, d'un suivi et d'un traitement de la part d'un large éventail de professionnels de la santé (par exemple, une équipe multidisciplinaire composée de médecins, d'infirmières, de diététiciens, de travailleurs sociaux et de psychologues). Dans une telle situation, différents agents d'intelligence artificielle peuvent être déployés pour soutenir les membres de l'équipe de professionnels de la santé, par exemple pour les aider à optimiser les choix de médicaments, à fournir des conseils sur le mode de vie, à coordonner les soins, et ainsi de suite. Ces agents d'IA utilisent le raisonnement agentique et le modèle de collaboration multi-agents pour mettre en commun les compétences et la mémoire de travail afin de fournir des soins bien ciblés, bien informés et coordonnés.
- Objectifs communs et compréhension des problèmes
-
L'agent d'IA et l'expert humain définissent ensemble l'état de santé du patient, ses objectifs de traitement et les obstacles potentiels. Enfin, ils coconstruisent un plan de soins personnalisé, où les forces respectives de l'humain et de l'algorithme aident à fournir le meilleur traitement possible pour les besoins médicaux, psychologiques et sociaux du patient.
- Répartition et coordination des tâches
-
En fonction des tâches qui leur sont assignées, les agents d'IA répartissent une partie du travail. L'agent d'optimisation des médicaments peut analyser les ordonnances du patient à la recherche d'interactions médicamenteuses et suggérer des moyens d'optimiser l'efficacité et la sécurité. L'agent d'accompagnement du mode de vie peut personnaliser les recommandations en matière de régime alimentaire, d'exercice physique et de gestion du stress pour compléter le régime d'autosoins du patient.
-
L'agent de coordination des soins se tient au centre, rassemblant les informations de la myriade d'agents de soins et connectant chacun d'entre eux aux informations spécifiques dont ils ont besoin. L'agent de coordination des soins s'assure également que les autres agents et les experts humains sont au courant de l'état actuel du patient, de son changement d'état et de son changement de plan de soins.
- Partage d'informations et échange de connaissances
-
Les agents d'IA et les experts humains échangent en permanence des informations et des connaissances qui soutiennent la prise de décision collective et la résolution de problèmes. Ils transmettent les données des patients, les recommandations de traitement et les connaissances cliniques via des canaux cryptés et des formats de données standardisés afin que chaque agent et expert puisse s'appuyer sur les connaissances collectives de l'ensemble du groupe et mettre à jour ses stratégies en conséquence. Par exemple, si l'agent d'optimisation des médicaments détecte un événement médicamenteux indésirable potentiel, il en informe l'agent de coordination des soins, qui à son tour alerte les experts humains mais aussi les autres agents d'IA. L'équipe évalue ce qui se passe et génère un compte rendu de l'événement. Ils envisagent de retirer un médicament incriminé et de le remplacer par une option différente. Si c'est le cas, ils mettent à jour le plan de soins.
- Résolution de conflits et recherche de consensus
-
En cas de recommandations ou d'opinions contradictoires entre les agents IA ou les humains, le modèle de collaboration multi-agents leur permet de s'engager dans l'argumentation et les dialogues, de négocier sur les compromis et de parvenir à un consensus assisté par l'argumentation, le vote ou les méthodes d'analyse décisionnelle multicritères. Ce schéma de collaboration permet de s'assurer que la décision convenue est "dans l'intérêt du patient".
- Apprentissage et adaptation continus
-
Si l'état du patient évolue et que de nouvelles données deviennent disponibles, les agents IA et les experts humains apprennent de nouvelles stratégies pour le processus de coordination des soins, en échangeant des conseils (en quelque sorte) qui aident à rendre leurs deux stratégies plus efficaces et efficientes. Les multiples agents interagissent pour apprendre des succès et des échecs de chacun et développer de nouvelles approches face à de nouveaux défis au fil du temps.
Ce modèle de collaboration multi-agents issu du raisonnement agentique permet aux agents d'IA et aux experts humains en soins de santé de travailler ensemble de manière coordonnée afin de fournir des soins holistiques et personnalisés aux patients ayant des besoins de santé complexes. La définition d'un objectif commun, la répartition des tâches, le partage des connaissances, la résolution des conflits ainsi que l'apprentissage et l'adaptation font partie des éléments qui peuvent aider l'équipe à tirer parti de l'intelligence collective pour avoir un plus grand impact sur l'optimisation des résultats pour les patients et l'amélioration de la qualité et de l'efficacité de la prestation des soins.
Étant donné que le raisonnement agentique dans le domaine de la santé n'en est qu'à ses débuts, le modèle de collaboration multi-agents deviendra probablement encore plus important dans la conception de systèmes d'IA qui peuvent travailler aux côtés de leurs homologues humains et même "apprendre d'eux" pour compliquer les paysages de soins de santé de plus en plus diversifiés et interconnectés. De plus, des contrôles éthiques, professionnels et réglementaires seront nécessaires pour préserver la sécurité, la confidentialité et la confiance des patients et des cliniciens.
Défis et orientations futures
Ces quatre modèles différents de raisonnement agentique offrent la possibilité d'amener l'IA à des niveaux d'intelligence humaine dans de nombreux domaines. Il y a, bien sûr, d'énormes défis à relever pour déterminer comment garantir que les agents de l'IA agentique interagissent avec les humains d'une manière qui soit sûre, éthique et alignée. Cela impliquera, par exemple, de développer des cadres solides pour l'alignement des valeurs, ainsi que des mécanismes permettant de demander des comptes à ces agents et de garantir l'équité de leurs opérations.
Un deuxième défi consiste à intégrer les quatre modèles de raisonnement centrés sur l'agent dans des architectures d'IA unifiées, flexibles et évolutives, ce qui pourrait nécessiter des avancées en matière d'apprentissage par transfert, d'apprentissage multitâche et d'apprentissage ouvert pour permettre aux agents d'IA d'apprendre des connaissances dans une tâche ou une situation afin d'aider à en résoudre une autre.
Les technologies de raisonnement agentique feront probablement des progrès significatifs à long terme. Ce qui continue d'être très intéressant dans ce domaine de recherche, c'est qu'il n'y a pas eu autant de travail effectué pour les chercheurs. Mais il est certainement possible d'envisager qu'au fil du temps, nous pourrions voir des systèmes d'IA qui réfléchissent et peut-être des outils, planifient et apprennent avec des formes de raisonnement et de collaboration de plus en plus complexes. De telles avancées pourraient transformer de nombreux domaines, des soins de santé, de l'éducation et des transports à la fabrication et au-delà.
Contexte d'utilisation lors de l'utilisation des LLMs
Comprendre les cas d'utilisation prévisibles des apps LLM reconnaît l'importance centrale du "contexte d'utilisation", [...]22 un terme inventé par Margaret Mitchell, lors de la création d'applications LLM de santé. La pensée de Margaret Mitchell repose peut-être sur une pratique d'ingénierie logicielle de longue date, l'ingénierie centrée sur l'être humain. Parce que les applications LLM de santé sont si ouvertes dans les prompts possibles de l'utilisateur, elles offrent des cas d'utilisation intéressants pour améliorer les systèmes de santé dans le monde entier, mais elles présentent également des défis pour prédire de manière préventive les interactions de l'utilisateur.
Contrairement aux objets physiques, qui peuvent avoir un nombre fini de cas d'utilisation, la plupart des applications logicielles sont tellement ouvertes dans leurs interactions que nous ne pouvons pas entièrement prédire comment les utilisateurs finaux les utiliseront en fin de compte. Une chaise peut être utilisée pour un nombre fini d'usages (comme s'asseoir ), mais une application est illimitée. Un modèle d'apprentissage automatique peut être développé pour prédire les maladies chroniques. Un modèle de maladie peut être développé pour prédire une maladie spécifique, comme les maladies cardiaques ou l'obésité. Un autre utilisateur ou une autre organisation peut choisir d'utiliser un modèle d'apprentissage automatique spécifique pour déterminer le coût de l'octroi d'une couverture d'assurance maladie, tandis qu'un autre utilisateur peut choisir d'appliquer le même modèle d'apprentissage automatique pour refuser une couverture d'assurance maladie.
La flexibilité des logiciels signifie que les utilisateurs peuvent les adapter à leur tâche en utilisant une application de la manière qui convient le mieux à leurs besoins particuliers, à leurs flux de travail et à leurs utilisateurs. Cette application de productivité pourrait être conçue pour la gestion des tâches, mais elle pourrait aussi être utilisée comme outil de collaboration dans le cadre d'un projet. L'ouverture des logiciels - rendue possible par cette flexibilité intrinsèque - signifie que les organisations ou les entreprises qui créent ces logiciels doivent également être prêtes à relever le défi ultime de l'exploitation humaine. En ce qui concerne le chatbot alimenté par LLM, la flexibilité de l'interaction en langage naturel signifie que son ouverture prompte est difficile à anticiper ou à restreindre en termes de contexte et de résultats potentiels. Les utilisateurs peuvent poser des questions (ou faire des demandes) qui ne sont pas prévues dans le champ d'application défini pour le chatbot. Il est possible que les utilisateurs essaient de manipuler ses réponses pour obtenir des résultats nuisibles ou inappropriés.
Par exemple, une personne à la recherche d'un diagnostic pourrait demander à un chatbot de bien-être qui a été construit pour des discussions générales liées à la santé, ce qui pourrait générer des suppositions erronées ou dangereuses. Même le plus léger des chatbots risque de se heurter à une interaction hostile ou abusive de la part d'un bot de service client qui se fait injustement critiquer pour ses erreurs.
Pour atténuer ces risques, les développeurs de chatbots alimentés par la LLM devront mettre en place des couches de sécurité, des codes de déontologie et des outils de modération du contenu. Il peut s'agir par exemple d'utiliser des formes de tests contradictoires - où un système est délibérément exposé à la plus large gamme possible d'entrées de la part des utilisateurs afin d'identifier les failles dans sa formation et sa spécification de représentativité - pour s'assurer que, par exemple, le fait de demander au bot de ne pas être impoli ne l'amène pas à déverser des commentaires racistes. Quelle que soit la stratégie adoptée, les développeurs doivent s'assurer que les limites et les attentes en matière d'impossibilité sont clairement définies et communiquées aux utilisateurs afin de réduire le risque qu'un utilisateur tente de forcer le robot à faire l'impossible.
Deuxièmement, comme indiqué précédemment, les chatbots alimentés par des LLMs doivent être constamment surveillés et affinés pour s'assurer qu'ils continuent à fonctionner comme souhaité. Les développeurs doivent ancrer ce processus en recherchant activement les commentaires des utilisateurs concernant leurs expériences quotidiennes avec leurs chatbots. Les développeurs doivent également examiner les modèles d'interaction. Ils doivent soumettre les données et les commentaires à une analyse plus approfondie et mettre à jour les bases de connaissances et les systèmes de réponse en conséquence afin d'optimiser les performances des chatbots dans les nouvelles conditions créées par leurs utilisateurs.
En résumé, la nature ouverte des applications logicielles, y compris les chatbots pilotés par LLM, peut présenter des opportunités et des garanties pour anticiper, planifier et traiter les interactions des utilisateurs. La nature ouverte d'un chatbot piloté par LLM permet aux créateurs de prévoir des utilisations inédites dans son cadre, qui peuvent être bénéfiques pour les utilisateurs. Le caractère ouvert d'un chatbot piloté par LLM peut également conduire à des utilisations imprévues et nuisibles. Néanmoins, en mettant en place des garde-fous, des guides de moralité, ainsi qu'un contrôle et des améliorations continus, les créateurs peuvent améliorer l'expérience des utilisateurs lorsqu'ils utilisent des chatbots pilotés par LLM.
Qu'il s'agisse de vérifier des résultats de recherche politiquement biaisés ou d'attraper des marqueurs linguistiques de la démence, la valeur de l'application du contexte aux apps LLM est évidente. En concevant les apps LLM en tenant compte du contexte, nous pouvons construire des outils de santé plus robustes, plus éthiques et plus bénéfiques pour les patients. Les apps LLM devraient faire ce qui suit :
-
Encourage une utilisation responsable en fournissant des interfaces claires, du matériel éducatif pour les cliniciens et de la transparence sur les limites de l'IA.
-
Appliquer des mesures de protection contre les scénarios d'utilisation abusive identifiés (par exemple, des contrôles de sécurité pour les données, des mesures préventives pour désactiver l'empilage contre les sorties biaisées).
-
Laisse l'IA s'améliorer au fur et à mesure qu'elle est déployée de manière adaptative dans de nouveaux contextes. Les ajustements pourraient se faire en surveillant l'IA utilisée dans le monde (dans la mesure du possible) et en ajustant le modèle en fonction des problèmes qui se posent.
LLMs sur la consommation et les affaires
Aujourd'hui, nous avons des apps et des applications essentiellement divisées en deux groupes, les consommateurs et les entreprises. Elles servent des objectifs différents et ciblent des utilisateurs différents. Les apps ou applications professionnelles sont généralement conçues pour les employés d'une entreprise. Cependant, certaines entreprises créent également des applications pour leurs clients afin de leur permettre d'accéder aux plans de santé, de comprendre les avantages, de prendre des rendez-vous, etc. Les plus grands exemples d'applications grand public se trouvent peut-être dans les domaines des médias sociaux, du divertissement, de la productivité, des jeux et du commerce, pour n'en citer que quelques-uns.
Dans le domaine de la santé, nous voyons des applis médicales conçues pour faciliter la santé personnelle. Des applications pour planifier les visites à domicile des médecins (par exemple, ZocDoc), des applications de thérapie (par exemple, Talkspace), des applications de télésanté (par exemple, Doctor on Demand), des applications de santé pour les femmes comme Maven, et bien d'autres encore. Nous nous attendons à voir émerger au fil du temps davantage d'applications basées sur la LLM dans le domaine de la santé pour couvrir un grand nombre des cas d'utilisation décrits dans les chapitres 3, 4 et 5.
Les LLMs pour les consommateurs et l'IA générative
Ce livre explore une hypothèse clé : l'essor des applications axées sur le consommateur et alimentées par des LLMs transformera considérablement les soins de santé. Ces applis, tirant parti des capacités des LLMs à résumer des informations et à générer du contenu, devraient :
-
Améliorer la relation médecin-patient
-
Aider les individus à mieux gérer leurs maladies chroniques et leur santé en général.
-
Plus important encore, interviens pour retarder ou prévenir l'apparition des maladies chroniques.
En exploitant les capacités des LLMs, ces applications grand public ont le potentiel de révolutionner la gestion personnelle de la santé et les soins préventifs.
Les LLMs grand public sont conçus pour des utilisateurs individuels, offrant diverses applications et fonctionnalités adaptées aux besoins et intérêts personnels. Ces LLMs incluent des modèles tels que les chatbots, les assistants virtuels et les générateurs de contenu. Voici quelques caractéristiques clés des LLMs grand public :
- Assistants conversationnels
-
Les LLMs grand public tels que les assistants virtuels (par exemple, Siri, Google Assistant) sont développés pour aider les utilisateurs à définir des rappels, à répondre à des questions de culture générale, à envoyer des messages et à jouer de la musique. Ils sont conçus pour être pratiques au quotidien.
- Engagement et divertissement
-
Les LLMs grand public sont souvent conçus pour offrir des expériences interactives - telles que des assistants IA conversationnels, des chatbots ou des outils d'écriture créative - qui visent à engager et à divertir les utilisateurs.
- Génération de contenu
-
Certains LLMs grand public peuvent générer du texte, ce qui peut être utile pour des tâches telles que la rédaction de courriels, l'écriture de contenus créatifs ou même l'aide au codage. Ces modèles se concentrent sur l'amélioration de la productivité et de la créativité personnelles.
- Personnalisation
-
Les LLMs grand public donnent souvent la priorité à la personnalisation en apprenant des interactions de l'utilisateur pour fournir des recommandations, des contenus et des réponses sur mesure.
- Assistant(e) personnel(le)
-
Ces LLMs peuvent aider à répondre aux questions sur les soins de santé, à fournir des recommandations, à rédiger des courriels ou des documents, à prendre des rendez-vous avec des cliniciens et à aider à diverses tâches de productivité individuelle.
- Accessibilité
-
Ces modèles sont souvent déployés avec des interfaces conviviales, accessibles à un large éventail d'utilisateurs, et sont souvent disponibles sur les appareils mobiles et les ordinateurs personnels.
Les LLMs commerciaux et l'IA générative
Les entreprises et les organisations conçoivent leurs LLMs d'entreprise et l'IA générative, à la fois pour les utilisations des employés et des clients, afin d'automatiser les tâches, d'interpréter les données et de générer des choses telles que du texte, des images et des vidéos. Les LLMs business sont conçus pour être utilisés dans les organisations et les entreprises, avec les caractéristiques suivantes :
- Intégration des données
-
Les LLMs commerciaux sont conçus pour s'intégrer dès le départ aux sources de données de ton organisation (par exemple, les DSE ou d'autres bases de données cliniques, de réclamations, de pharmacie ou d'éligibilité). En utilisant toutes ces données du secteur de la santé, il peut te fournir des aperçus et des rapports. Les LLM permettent d'analyser de grandes quantités de données commerciales. Par exemple, un LLM pourrait rapidement évaluer les critères d'autorisation préalable complexes et en constante évolution utilisés par les payeurs et les compagnies d'assurance.
- LLMs d'affaires spécifiques à certains secteurs d'activité.
-
Développés au profit d'un certain secteur d'activité tel que la santé, les LLMs spécifiques à ce secteur peuvent aider à accomplir des tâches allant du diagnostic d'une maladie au traitement des demandes de remboursement ou à la prise de décisions cliniques.
- Collaboration
-
Ces LLMs sont souvent dotés de fonctionnalités pour les espaces de travail d'équipe partagés, la collaboration/le partage de documents et l'automatisation des flux de travail afin d'augmenter la productivité de l'organisation.
- Gestion des connaissances
-
Les LLMs commerciaux peuvent aider les organisations à collecter et à partager des connaissances en construisant des bases de connaissances, en résumant des données et en offrant des suggestions contextuelles.
- Service clientèle et assistance
-
Du commerce des matières premières à l'achat de billets de concert, les LLMs peuvent alimenter les assistants conversationnels d'IA et les chatbots pour fournir une assistance client et répondre aux requêtes.
- Garanties de service
-
Les LLMs de niveau entreprise comprennent des accords de niveau de service et un service client dédié, ce qui les rend fiables pour les opérations commerciales.
En résumé, la principale différence entre les outils LLM grand public et professionnels est la suivante : les LLM grand public sont principalement axés sur la commodité personnalisée et la productivité personnelle, tandis que les LLM professionnels sont conçus pour des cas d'utilisation spécifiques à l'industrie - avec une intégration de données personnalisée et un support de niveau entreprise pour les opérations.
Combler le fossé
Cette distinction entre les LLMs consommateurs et LLMs entreprises/ IA générative est en réalité importante car elle influence l'utilisation et son public. Il est important de faire la distinction entre les LLMs business et consumer pour plusieurs raisons :
-
But et objectifs
-
Formation aux données
-
Le paysage réglementaire
-
Éthique et préjugés
Buts et objectifs
Les LLMs commerciaux sont orientés vers la résolution d'un problème commercial spécifique ou l'amélioration des processus commerciaux. Cela va de l'automatisation des interactions entre un membre du régime de santé et un employé du service à la clientèle à la création d'informations à partir des données dont disposent déjà les entreprises.
Les LLMs grand public sont conçus pour une utilisation individuelle et à des fins éducatives. Ils offrent des services tels que la traduction linguistique et la réponse à des questions conversationnelles. Il est important de noter qu'ils peuvent être adaptés aux préférences et aux besoins individuels, en fournissant des réponses personnalisées basées sur les interactions passées de l'utilisateur, ses intérêts déclarés ou ses exigences spécifiques.
Formation aux données
Les LLMs commerciaux sont formés sur à partir d'ensembles de données spécifiques à un domaine. De cette façon, nous pouvons "adapter" le LLM à notre domaine d'activité, de sorte qu'il ne se contente pas d'aborder directement le contenu, mais qu'il le fasse également en connaissant le contexte et le jargon de l'entreprise.
Les LLMs grand public sont formés sur de grands corpus généralistes (collections de textes et de codes) tirés de divers sites Web publics. Ceux-ci offrent une exposition généraliste mais risquent d'être biaisés et manquent de connaissances spécialisées et/ou d'expertise dans le domaine. En utilisant le cadre d'IA RAG, les données s'étendent à des sources de données externes, tout comme pour un LLM d'entreprise.
Le paysage réglementaire
Les LLMs commerciaux sont réglementés en vertu de règles spécifiques au secteur (par exemple, le secteur financier) ou de règles réglementant les données (par exemple, la protection des données médicales).
Les LLMs consommateurs sont liés par les lois et règlements de protection des consommateurs en ce qui concerne la confidentialité des données et les pratiques éthiques de l'IA. Par exemple, l'HIPAA impose des restrictions sur la façon dont une personne ou son représentant utilise les informations de santé, conformément au droit d'accès de la personne.
Éthique et préjugés
LLMs d'affaires : Une gestion prudente et l'atténuation des préjugés sont nécessaires pour éviter un traitement discriminatoire ou autrement injuste des clients potentiels, des employés, etc.
LLMs consommateurs : Les préjugés dans les LLMs grand public peuvent conduire à une désinformation préjudiciable, à un contenu offensant ou à la perpétuation des inégalités sociales. Il est essentiel que le développement de ces technologies soit responsable et que les préjugés involontaires soient continuellement pris en compte.
En conclusion, si les modèles de big language sont utilisés à la fois par les entreprises et les consommateurs, leurs objectifs différents, bien que potentiellement liés, et les besoins associés en matière de saisie, de contrôle (y compris de sécurité) et de considérations éthiques devraient tous nous obliger à penser leur développement et leur utilisation différemment, en fonction de ces différents objectifs et antécédents.
Résumé
Les LLMs peuvent ouvrir un monde de potentiel qui était autrefois limité au domaine de la science-fiction. En se plongeant dans le potentiel de ces modèles de langage avancés, ce chapitre a exploré une série de promesses et d'applications futuristes (dont deux - le couteau suisse médical pour les consommateurs et le Sherpa médical pour les cliniciens - sont alimentées par un LLM). Les modèles de langage (LLMs) - des machines capables de lire, d'écrire et de manipuler le langage humain avec une fluidité et une flexibilité remarquables - ont inauguré cette nouvelle ère. Les LLMs continuent d'évoluer rapidement et leurs capacités ne cessent de s'améliorer. Les LLMs promettent de transformer les soins aux patients, la recherche et les connaissances médicales dans un large éventail de secteurs de la santé.
Mais la plus grande différence réside peut-être dans le type d'utilisateurs et de cas d'utilisation prévus pour une application alimentée par la LLM. Les applications LLM grand public (comme le couteau suisse médical) se concentrent sur la facilité pour l'utilisateur final de prendre des décisions médicales éclairées, qu'il s'agisse de gestion d'événements et d'autodiagnostic à petite échelle ou d'applications de promotion de la santé, d'autogestion des soins et de soins familiaux à grande échelle. Les applications de LLM professionnelles (comme le Medical Sherpa) s'adresseront aux professionnels de la santé et aux organisations qui alimentent ou recherchent la littérature médicale en constante augmentation, aux cliniciens qui prennent des décisions de diagnostic et aux chercheurs pharmaceutiques qui développent des médicaments. Pour les applications LLM grand public, la commodité et la facilité d'utilisation sont des éléments clés de l'attractivité. Pour les applications LLM professionnelles, des questions telles que la confidentialité des données, la conformité à l'HIPAA et à la réglementation, et les fonctions spécifiques à l'industrie sont les éléphants dans la pièce.
Mais à mesure que la société s'enfonce dans les LLMs, leurs solutions et leurs promesses façonneront un monde qui sera rempli de nouveaux outils pour les consommateurs de santé comme pour les professionnels de la médecine, et créeront un avenir proche diversifié par un plus grand accès aux soins de santé et aux connaissances médicales.
1 C. M. Kornbluth, "The Little Black Bag", dans The Best of C. M. Kornbluth, ed. Frederik Pohl (Garden City, NY : Nelson Doubleday, 1976), 42-69.
2 Matt Marshall, "NY Hospital Exec : Multimodal LLM Assistants Will Create a 'Paradigm Shift' in Patient Care," VentureBeat, 6 mars 2024, https://venturebeat.com/ai/ny-hospital-exec-multimodal-llm-assistants-will-create-a-paradigm-shift-in-patient-care.
3 Les LLMs peuvent sembler comprendre le langage humain, mais ce sont des modèles statistiques sophistiqués. Ces modèles reconnaissent des modèles, traduisent d'une langue à l'autre, prédisent des mots probables et génèrent des textes cohérents. Cependant, ils ne comprennent pas vraiment le sens comme le font les humains. Voir "Risques des grands modèles linguistiques (LLM)", IBM Technology, 14 avril 2023, vidéo YouTube, 8:25, https://www.youtube.com/watch?v=r4kButlDLUc&t=278s.
4 " ChatGPT Experiments : Autoregressive Large Language Models (AR-LLMs) and the Limits of Reasoning as Structured Summarization ", The GDELT Project, 14 février 2023, https://blog.gdeltproject.org/chatgpt-experiments-autoregressive-large-language-models-ar-llms-and-the-limits-of-reasoning-as-structured-summarization.
5 Hoifung Poon et Jianfeng Gao, "Domain-Specific Language Model Pretraining for Biomedical Natural Language Processing," Microsoft Research Blog, 31 août 2020, https://www.microsoft.com/en-us/research/blog/domain-specific-language-model-pretraining-for-biomedical-natural-language-processing.
6 PubMed, consulté le 20 juin 2024, https://pubmed.ncbi.nlm.nih.gov.
7 Jinhyuk Lee, et al, "BioBERT : A Pre-trained Biomedical Language Representation Model for Biomedical Text Mining," Bioinformatics 36, no. 4 (février 2020) : 1234-1240, https://academic.oup.com/bioinformatics/article/36/4/1234/5566506.
8 Iz Beltagy, Kyle Lo et Arman Cohan, "SciBERT : A Pretrained Language Model for Scientific Text", arXiv, 10 septembre 2019, https://arxiv.org/abs/1903.10676.
9 Kexin Huang, Jaan Altosaar et Rajesh Ranganath, " ClinicalBERT : Modeling Clinical Notes and Predicting Hospital Readmission ", atelier CHIL '20, du 2 au 4 avril 2020, Toronto, ON, https://arxiv.org/pdf/1904.05342#:~:text=ClinicalBERT%20is%20an%20application%20of,task%20of%20hospital%20readmission%20prediction.
10 Alistair E. W. Johnson, et al, " MIMIC-III, a Freely Accessible Critical Care Database ", Données scientifiques 3, n° 160035 (2016), https://www.nature.com/articles/sdata201635.
11 " Med-PaLM ", Google Research, consulté le 20 juin 2024, https://sites.research.google/med-palm.
12 Karan Singhal, et al, "Towards Expert-Level Medical Question Answering with Large Language Models," arXiv, 16 mai 2023, https://arxiv.org/pdf/2305.09617.
13 Amanda Jane Modaragamage, " Top Wearable Medical Devices Used in Healthcare ", Healthnews, 16 janvier 2024, https://healthnews.com/family-health/healthy-living/wearable-medical-devices-used-in-healthcare.
14 David M. Levine et Ateev Mehrotra, " Évaluation du diagnostic et du triage dans des vignettes de cas validées chez des non-médecins avant et après une recherche sur Internet ", JAMA Network+ Open 4, no. 3 (2021) : e213287, https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2777835.
15 "Que réserve l'avenir à l'IA conversationnelle dans les apps d'entreprise ?" Koru, 11 juin 2024, https://www.koruux.com/blog/conversational-ai-in-enterprise-apps.
16 Margaret E, Kruk, et al, " Mortality Due to Low-Quality Health Systems in the Universal Health Coverage Era : A Systematic Analysis of Amenable Deaths in 137 Countries ", Lancet 392, no 10160 (17 novembre 2018) : 2203-2212, https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6238021.
17 " UpToDate : Trusted, Evidence-Based Solutions for Modern Healthcare ", Wolters Kluwer, consulté le 20 juin 2024, https://www.wolterskluwer.com/en/solutions/uptodate.
18 Michael Morrison, "Les hôpitaux qui mènent des recherches offrent-ils de meilleurs soins aux patients ?" Massachusetts General Hospital, communiqué de presse, 28 février 2022, https://www.massgeneral.org/news/press-release/do-research-hospitals-provide-better-care-for-patients.
19 Kerrie Holley et Siupo Becker, AI-First Healthcare : AI Applications in the Business and Clinical Management of Health (O'Reilly Media, 2021), https://learning.oreilly.com/library/view/ai-first-healthcare/9781492063148.
20 " L'avenir de l'IA, selon l'ancien PDG de Google Eric Schmidt ", Noema Magazine, 21 mai 2024, vidéo YouTube, 20:06, https://www.youtube.com/watch?v=DgpYiysQjeI.
21 "What's Next for AI Agentic Workflows ft. Andrew Ng of AI Fund ", Sequoia Capital, 26 mars 2024, vidéo YouTube, 13:39, https://www.youtube.com/watch?v=sal78ACtGTc&t=524s.
22 Margaret Mitchell, " Ethical AI Isn't to Blame for Google's Gemini Debacle ", Time, 29 février 2024, https://time.com/6836153/ethical-ai-google-gemini-debacle.
Get Les LLM et l'IA générative au service de la santé now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.