Capítulo 1. La bolsa negra del médico

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

En el relato corto de C. M. Kornbluth "La pequeña bolsa negra".1 El Dr. Full, un médico en apuros, descubre una misteriosa bolsa de médico del futuro llena de avanzados dispositivos médicos y medicinas. Este equipo futurista mejora sus habilidades como médico, permitiéndole diagnosticar y tratar a los pacientes con una eficacia sin precedentes. A medida que explora el contenido de la bolsa, el Dr. Full se maravilla ante el potencial de las innovaciones médicas del futuro, y se siente como si estuviera en la cúspide de una revolución sanitaria.

Sin embargo, el relato de Kornbluth no es simplemente una celebración del progreso médico. A medida que se desarrolla la historia, queda claro que una tecnología tan poderosa, en las manos equivocadas, puede explotarse en beneficio propio y no para un bien mayor. La narración sirve como recordatorio de que, aunque los futuros avances médicos puedan parecer mágicos en sus capacidades, también conllevan importantes responsabilidades éticas y un potencial de uso indebido. Este relato ficticio nos incita a considerar tanto las apasionantes posibilidades como los retos éticos que nos esperan a medida que la tecnología médica y la IA (LLM e IA generativa) sigan avanzando rápidamente, a menudo de forma interconectada.

La IA y los LLM tienen el potencial de mejorar la atención clínica, especialmente en aquellas áreas que aumentan los procesos de toma de decisiones de los médicos, mejoran las interacciones médico-paciente, agilizan las tareas administrativas, mejoran la educación y el compromiso de los pacientes y, en última instancia, conducen a mejores resultados sanitarios. Aprovechando las capacidades de los LLM multimodales, las instituciones sanitarias tienen el potencial de desarrollar sofisticados asistentes médicos virtuales que puedan monitorear proactivamente la salud del paciente y ayudar en el diagnóstico, según un alto ejecutivo médico del NewYork-Presbyterian, una destacada red hospitalaria de Nueva York.2

Al igual que la bolsa negra tradicional dotaba a los médicos de herramientas esenciales para prestar una atención de calidad, la IA está a punto de convertirse en un activo indispensable que faculte a los clínicos para prestar a sus pacientes una atención más personalizada, eficiente y basada en pruebas. En este capítulo se exploran las posibilidades de mejorar la atención al paciente mediante el uso de la IA, especialmente en los casos en que podrían mejorar la asistencia sanitaria en los que más se benefician los médicos y los pacientes.

Los LLM son modelos de aprendizaje automático para el procesamiento del lenguaje natural (PLN) que aparentemente pueden comprender3 y generar textos en lenguaje humano. Los LLM son un tipo de inteligencia artificial (IA) que comprende y manipula el lenguaje humano con notable destreza. Se denominan "grandes" porque se entrenan con grandes cantidades de datos de texto, a menudo miles de millones de palabras, lo que les permite aprender los matices del lenguaje humano.

Para los médicos, los LLM pueden considerarse herramientas avanzadas de procesamiento del lenguaje que pueden ayudar en diversas tareas administrativas relacionadas con datos sanitarios (estructurados como historiales médicos electrónicos [HCE] o notas médicas no estructuradas). Del mismo modo que los estetoscopios y las máquinas de rayos X amplían las capacidades de un médico para evaluar la salud de un paciente, los LLM pueden mejorar la capacidad de un médico para analizar e interpretar grandes cantidades de datos de investigación, cadenas de correo electrónico con vídeos incrustados, historiales médicos de un paciente, notas clínicas, resúmenes de altas y mucho más.

La IA Generativa es un subconjunto o tipo de IA, igual que los LLM y el aprendizaje automático son tipos de IA. La IA Generativa se centra en crear nuevos contenidos, como texto, imágenes, vídeo o audio, a menudo en respuesta a las preguntas de un usuario. Los resultados generados suelen parecerse a los contenidos creados por humanos en cuanto a estilo y estructura.

Cuando en este libro utilizamos frases como LLMs o IA generativa, lo hacemos como términos comodín que engloban una amplia gama de sistemas de IA, aunque tengan atributos diferentes o empleen algoritmos de aprendizaje automático distintos. Estos términos globales incluyen, entre otros, los LLM, los modelos de lenguaje reducido, los modelos multimodales y la IA generativa.

Piensa que estos modelos han sido entrenados con mucha de nuestra información escrita (por ejemplo, libros, artículos y sitios web) y sobre montones de temas del mundo. Esto les permite comprender algo sobre las relaciones entre palabras en frases y párrafos, los significados que se acumulan en los capítulos, las progresiones generales que muestran los arcos narrativos, etc.

Cuando OpenAI lanzó su modelo de lenguaje ChatGPT en 2022, transformó la IA conversacional y liberó la PNL, abriendo a las masas la posibilidad de mantener conversaciones y responder preguntas con apariencia humana mediante una sencilla interfaz web. Este LLM ganó popularidad en todo el mundo por su capacidad para mantener conversaciones similares a las humanas, responder preguntas, escribir ensayos fantasma y realizar una amplia gama de tareas. Despertó el interés de los directores generales de empresas tecnológicas por el impacto de la tecnología en los negocios y en la vida cotidiana. Pero recordemos cómo debemos pensar sobre el uso de los LLM.

Un blog de 20234 habla de los experimentos de ChatGPT que aportan ideas sobre cómo debemos pensar y utilizar los LLMS. Si tratamos los LLM como herramientas de resumen y tratamos sus indicaciones no como órdenes a otro ser sensible, sino como anclas para ese proceso en el que el resumen está en sintonía con algo del mundo real, podemos utilizar estas herramientas de forma eficaz en la asistencia sanitaria. Hicimos algo parecido con las lacónicas limitaciones de la búsqueda por palabras clave: aprendimos y seguimos aprendiendo a "dirigir" la búsqueda hacia lo que queramos. Desde la aparición de la búsqueda hace algunas décadas, hemos aprendido a formular preguntas con anclajes lingüísticos que probablemente dirijan la búsqueda hacia lo que queremos. Podemos hacer lo mismo con las indicaciones LLM, tratándolas como anclas para el resumen con preferencia a las especificaciones, y así enfocarlo bien. Una vez que tratamos las peticiones LLM como anclas para el resumen, podemos dirigirlas más eficazmente incrustando la tarea de resumen en la base de conocimientos del modelo, por un lado, y en el ámbito de la tarea definido por la petición, por otro.

A medida que empezamos a comprender mejor cómo funcionan los LLM, hay que equilibrar la hipérbole con una evaluación realista de cómo construir y aprovechar los LLM en la asistencia sanitaria. Los LLM son modelos estadísticos autorregresivos, una clase de modelos de aprendizaje automático que predicen la siguiente palabra a partir del contexto. Por ejemplo, supongamos que eres un autor que escribe una historia. Tienes un asistente de escritura que te ofrece la siguiente palabra adecuada basándose en las palabras que ya has escrito. Este asistente ha leído muchas historias, de todos los tipos, por lo que sabe aproximadamente cómo las palabras siguen a otras palabras para componer frases generalmente útiles y narraciones más complejas. Con el asistente para escribir historias, sigues escribiendo, sigues aceptando las sugerencias, y de palabra en palabra, una tras otra, tu historia se alarga. A cada paso, la siguiente palabra se deriva de las palabras escritas anteriormente. Así es, en esencia, como funciona un modelo autorregresivo: aprende de los datos existentes y genera (o predice) nuevos datos, paso a paso, basándose en la secuencia anterior de datos.

Gemini, ChatGPT, Claude.AI y otros LLM autorregresivos dan la ilusión de razonar como lo hacen las personas, proporcionando respuestas sorprendentes a indicaciones matizadas o complicadas. Incluso parecen actuar como personas, proporcionando reacciones aparentemente emocionales y comprensión empática. Estas ilusiones se hacen más creíbles debido a nuestros sesgos cognitivos, es decir, a nuestra tendencia a antropomorfizar. En el siguiente capítulo, el 2, se analiza el funcionamiento de los LLM de forma más específica, incluyendo en detalles explícitos los tokens, parámetros, etc.

Potencial de los LLM y la IA Generativa

Aunque los LLM médicos existentes ya son impresionantes y útiles en algunos aspectos, el desarrollo se encuentra en las primeras fases, y estas innovaciones sólo han alcanzado una fracción del potencial para transformar la forma en que prestamos asistencia sanitaria. Los desarrollos actuales hacen hincapié en la reducción de la carga del médico y la documentación, pero esto es sólo el principio del impacto de los LLM en la prestación de asistencia sanitaria. Ya se han publicado versiones médicas específicas completas, pero aún no están causando sensación en la forma en que se presta la asistencia clínica por diversas razones.

Disponibilidad y calidad de los datos

Los LLM se entrenan con conjuntos de datos enormes, y su rendimiento dependerá de la calidad de los datos utilizados para entrenarlos. En medicina, los datos suelen estar distribuidos en múltiples fuentes, como HCE, revistas médicas y ensayos clínicos aleatorios. Además, los datos deben ser completos, precisos y coherentes; los datos de menor calidad pueden afectar al rendimiento de los LLM.

Prejuicios e imparcialidad

Los LLM aprenden de datos sesgados, lo que significa que se les entrena con datos que reflejan los sesgos del mundo. Esto puede llevar a transferir y reforzar sesgos ya potentes en la forma en que prestamos asistencia a determinados grupos de pacientes. Por ejemplo, un LLM entrenado en un conjunto de datos sesgado de historiales médicos (por ejemplo, conjuntos de datos que contienen un número bajo de grupos raciales o étnicos específicos) también puede generar recomendaciones sesgadas. Cuando se habla de sesgo, la atención se centra en que el sistema funcione correctamente según lo previsto. Mitigar el sesgo suele ser fundamental para que el sistema funcione y se utilice con éxito.

Interpretabilidad y explicabilidad

Conseguir la interpretabilidad o explicabilidad ha sido uno de los retos más importantes en el desarrollo de la IA. Las LLM se consideran a menudo "cajas negras" debido a su complejo funcionamiento interno, que opera de forma tan oscura que su funcionalidad y resultados generales son difíciles de entender o predecir. La falta de interpretabilidad y explicabilidad es problemática en medicina. Habrá una gran reticencia a adoptar los LLM en la asistencia sanitaria si no podemos entender cómo llegan a recomendaciones o diagnósticos concretos.

Panorama normativo

Un reto clave en torno al desarrollo de la IA en medicina en es el vacío normativo. Actualmente no existen directrices claras que definan lo que significa desarrollar e implementar la IA en la asistencia sanitaria. Esta incertidumbre frena de hecho el entusiasmo por intentar utilizar la IA en contextos médicamente complejos y de alto riesgo, ya que existen pocos precedentes que orienten a las organizaciones sanitarias sobre cómo actuar en estas condiciones.

Panorama ético

En general, las preocupaciones sobre el uso de LLM en medicina incluyen el potencial de uso indebido, la erosión de la autonomía del paciente y la invasión de su privacidad. Deben tenerse en cuenta las preocupaciones éticas antes de utilizar los LLM en la asistencia sanitaria.

Los LLM modelan explícitamente las relaciones entre las palabras y el significado a lo largo de un extenso texto, lo que da lugar a una comprensión textual y una generación de contenidos más fluidas. Además, difieren de los modelos lingüísticos más primitivos, que sólo pueden concatenar palabras en un patrón textual, debido a su escala de datos y a la parametrización de los modelos. El Capítulo 2 detalla cómo funcionan los LLM, explicando los parámetros, los tokens y mucho más.

Los LLM médicos y de otro tipo existentes son, en muchos sentidos, ya bastante impresionantes. Sólo estamos en las primeras fases de maduración de estos algoritmos y modelos, pero el potencial de transformación de la prestación de asistencia sanitaria es tremendo. Aun así, gran parte de la atención actual se centra en disminuir las cargas administrativas y de documentación de los clínicos, y eso es sólo el principio de cómo podrían cambiar las cosas. Es posible que la generación actual de LLM pronto se sienta bastante primitiva. Habrá muchas más aplicaciones asombrosas y transformadoras en los próximos años, a medida que los LLM y otros tipos de IA crezcan y mejoren.

Hay varias LLM y otras plataformas de IA que se han creado específicamente para aplicaciones en medicina y asistencia sanitaria, algunas de las cuales son prototipos de investigación y otras están más maduras y se utilizan en aplicaciones del mundo real. He aquí algunos ejemplos destacados.

PubMedBERT

Este LLM5 y su modelo asociado tuvieron un preentrenamiento en texto biomédico, y los investigadores afirman que supera a todos los modelos lingüísticos anteriores. Está diseñado para destacar en el ámbito biomédico. Se ha entrenado con una gran cantidad de artículos de investigación biomédica de la base de datos PubMed6 de PubMed. Utiliza BERT, un modelo de PNL desarrollado por Google. Está diseñado para ayudar a los ordenadores a comprender e interpretar mejor el lenguaje humano, teniendo en cuenta el contexto y las relaciones entre las palabras. BERT puede entender el significado de una palabra basándose en las palabras que vienen antes y después de ella en una frase o párrafo. El BERT ha revolucionado el campo de la PLN y se ha adoptado ampliamente en diversas aplicaciones, como motores de búsqueda, chatbots y herramientas de análisis de sentimientos. Su capacidad para comprender e interpretar el lenguaje humano tiene importantes implicaciones para mejorar la interacción persona-ordenador y permitir un procesamiento más preciso y eficaz de grandes volúmenes de datos de texto.

BioBERT

Se trata de un modelo de lenguaje especializado adaptado al texto biomédico. Se basa en el modelo original BERT7 que se entrenó con un corpus de texto general. BioBERT se entrena además con literatura biomédica, lo que mejora su capacidad para comprender y procesar el lenguaje médico y científico. Está preentrenado en corpus a muy gran escala del ámbito biomédico, en concreto, una combinación de resúmenes de PubMed y artículos de texto completo de PubMed Central (PMC) de la Biblioteca Nacional de Medicina de EE.UU.

SciBERT

Diseñado por el Instituto Allen para la IA, este modelo derivado del BERT8 está entrenado en un gran corpus de texto científico de dominios, incluida la literatura biomédica e informática, y se ha aplicado a tareas como la abstracción de documentos científicos.

ClínicaBERT

Diseñado para aprender el lenguaje específico del dominio del texto clínico y su estructura distintiva, como las paráfrasis con sonido humano, ClinicalBERT9 es un LLM específico del dominio basado en notas clínicas de la base de datos MIMIC-III,10 y se entrena para realizar tareas como el reconocimiento de entidades con nombre clínico, la extracción de relaciones y el análisis de sentimientos.

Med-PaLM de Google

El Pathways Language Model (PaLM) de Google se ha perfeccionado con conocimientos médicos para crear Med-PaLM,11 que obtuvo altas puntuaciones en varias pruebas de referencia médicas, incluidas tareas como responder a preguntas de exámenes médicos y proporcionar apoyo a la toma de decisiones clínicas. Google también anunció Med-PaLM2,12 que alcanzó el nivel de experto humano al responder preguntas del tipo Examen de Licencia Médica de EE.UU. (USMLE).

Tanto si se utilizan los ejemplos de dominio específico de LLM mencionados anteriormente como si se acoplan varios modelos básicos como GPT-4 (OpenAI), la familia Claude 3 (Anthropic), Gemini (Google) o LLaMA 2 (Meta) junto con los datos propios de una empresa, los LLM cambiarán el sector sanitario a mejor. Estos modelos de IA facilitan la navegación, la búsqueda y la comprensión del contenido del sitio web de un plan sanitario o de un pagador. Los modelos aceleran la investigación médica analizando grandes conjuntos de datos de HCE, ensayos clínicos y literatura científica. Los últimos avances de los LLM ofrecen la posibilidad de que un médico o investigador haga que un LLM lea un correo electrónico corto o largo o un conjunto de correos electrónicos, muchos de los cuales pueden incluir clips de vídeo o audio y resúmenes para el médico.

Además, las LLM están abordando diversos retos en la asistencia sanitaria, como descifrar y limpiar las notas médicas. También salvan las distancias en la comunicación paciente-proveedor mediante la IA conversacional, garantizan una comprensión exhaustiva del historial del paciente antes del tratamiento y analizan los datos sanitarios de diversas fuentes para obtener una mejor perspectiva del paciente. A medida que los LLM sigan evolucionando e integrándose en el sistema sanitario, se espera que su impacto sea transformador, dando forma al futuro de la atención al paciente, la investigación y la comunicación.

Aún les queda mucho camino por recorrer para superar sistemáticamente los conocimientos de los profesionales médicos más cualificados. Aun así, existe un enorme potencial para integrar a los LLM como tercer elemento en la relación médico-paciente. Los LLM podrían ser útiles para ayudar en el diagnóstico, la documentación y la comunicación con el paciente.

Todo proceso sanitario clínico y administrativo que requiera que los humanos creen trabajo original con los datos extraídos de la codificación médica, la educación del paciente, el diagnóstico, la admisión del paciente, la planificación del tratamiento, la gestión de la medicación, etc., es susceptible de reinvención.

Las aplicaciones o apps LLM y de IA generativa están empezando a despegar, gracias a la maduración de la capa de plataforma, la mejora continua de los modelos y la creciente disponibilidad de modelos gratuitos y de código abierto. Esto proporciona a los desarrolladores, las startups y las empresas las herramientas que necesitan para crear aplicaciones innovadoras. Al igual que los dispositivos móviles generaron nuevos tipos de aplicaciones con nuevas capacidades como sensores, cámaras y conectividad sobre la marcha, los LLM están preparados para marcar el comienzo de una nueva ola de aplicaciones y dispositivos de IA generativa para la atención sanitaria.

Por ejemplo, Perplexity AI demuestra cómo se pueden aprovechar los LLM para crear interfaces potentes y fáciles de usar para la recuperación y el análisis de información. Perplexity es una popular plataforma de búsqueda y chat impulsada por IA que utiliza LLM existentes (como GPT-3.5 y GPT-4) en lugar de ser un LLM distinto en sí mismo. Como aplicación o interfaz de IA construida sobre estos modelos, Perplexity muestra cómo los desarrolladores pueden crear herramientas innovadoras aprovechando las capacidades de los LLM avanzados. Aunque no se centran específicamente en la atención sanitaria, estas aplicaciones ilustran el potencial de las herramientas basadas en LLM para revolucionar el acceso a la información y el apoyo a la toma de decisiones en diversos campos, incluida la medicina.

Hoy en día, no faltan artilugios sanitarios que nos ayudan a optimizar nuestras vidas. Una búsqueda en Internet muestra una amplia gama de dispositivos médicos portátiles utilizados en la asistencia sanitaria13-incluidos tensiómetros, medidores de glucosa, monitores de ECG, rastreadores de fitness y mucho más. Nos gusta ponernos estos dispositivos para hacer nuestra vida más sana y nuestras condiciones de trabajo más fáciles. Estos dispositivos serán más útiles a medida que avancen los LLM sanitarios. Por ejemplo, los LLM podrían integrar datos de múltiples fuentes -como tu Fitbit, aplicación de dieta, aplicación de ejercicio, aplicación de ayuno y rastreador del sueño- para proporcionar una visión más holística de tu salud. A continuación, podrían analizar estos datos combinados para identificar patrones y tendencias que podrían no ser evidentes al observar cada fuente de datos de forma aislada.

Hacer búsquedas en Internet sigue siendo un método de investigación habitual para el autodiagnóstico. Investigar los propios síntomas de este modo suele denominarse coloquialmente "consultar al Dr. Google". Sin embargo, las pruebas son claras de que las búsquedas en Internet se correlacionan con pequeños aumentos en la precisión diagnóstica y casi ninguno en la precisión de triaje.14 Los LLM cambiarán esta ecuación a medida que las búsquedas en Internet y los LLM se integren en los próximos años. El modelo de interacción pregunta-respuesta de los principales LLM te dirige a un intercambio con Internet similar a una conversación, sensible al contexto y generativo.

Exploremos las diferencias actuales entre, por ejemplo, una búsqueda en Google y el principal sistema de preguntas y respuestas de los LLM.

Estilo de interacción

Una búsqueda en Google es un estilo de iniciación-respuesta, mientras que los principales LLM emplean un estilo de pregunta-respuesta, en el que tú le haces preguntas en lenguaje natural y él responde con una respuesta concreta. Una búsqueda en Google suele devolver muchas respuestas a tus términos y frases de búsqueda. Es un sistema relativamente flexible porque devuelve todos los resultados coincidentes y los clasifica. Una búsqueda en Google también cita fuentes.

Fuentes de información

Cuando haces una búsqueda en Google, el sistema recurre al enorme índice de páginas web y otros contenidos de Internet para encontrar lo que puede coincidir con tu petición de búsqueda y cargarlo. En cambio, los principales LLM recurren a fuentes de información con las que se han entrenado, que comprenden un corpus de datos de texto anteriores a una fecha concreta, que a menudo tiene un desfase entre esa fecha y la fecha actual de la petición del usuario.

Especificidad de las respuestas

Cuando realizas una búsqueda en Google, es probable que veas una serie de páginas web, artículos y otros recursos por los que tendrás que navegar y desplazarte para encontrar la información específica que buscas. Los principales LLM intentan ofrecerte respuestas específicas -directamente relacionadas con lo que buscas- sin que tengas que hacer toda la búsqueda. Por supuesto, esto también puede dar lugar a alucinaciones, que es otra forma de decir que la IA genera resultados sin sentido, o simplemente proporciona información objetivamente errónea. Debemos recordar al lector que al decir que la IA o los LLM líderes alucinan, antropomorfizamos a la IA. Como objeto no humano que carece de muchas cualidades humanas, una IA no es capaz de experimentar alucinaciones literales.

Hacer cosas nuevas

Una búsqueda en Google es un método para encontrar información en la web que ya se ha realizado. Un LLM no sólo puede encontrar esa información, sino también analizarla, elaborar un nuevo texto y explicar o argumentar alguna conclusión.

Los chatbots impulsados por LLM responderán a nuestras preguntas sobre nuestra salud, y las herramientas de diagnóstico impulsadas por LLM ayudarán a los médicos a diagnosticar enfermedades con mayor precisión. Los médicos recurrirán a los LLM médicos para desarrollar planes de tratamiento personalizados y monitorear el progreso de los pacientes.

Los LLM revolucionarán la forma en que los consumidores y los pacientes navegan por los sistemas sanitarios y de salud. Al proporcionar ideas, recomendaciones y apoyo personalizados, los LLM pueden hacer que los pacientes y consumidores asuman una mayor responsabilidad por su bienestar y tomen decisiones bien informadas sobre su asistencia sanitaria.

Los LLM podrían revolucionar la asistencia sanitaria de varias maneras:

Educación sanitaria personalizada

Los LLM proporcionan a los consumidores y pacientes educación personalizada sobre sus problemas de salud, opciones de tratamiento y estrategias de prevención. La IA generativa puede utilizarse para crear vídeos educativos personalizados que permitan a los médicos adaptar la educación a las necesidades, el lenguaje y las preferencias específicas del individuo.

Apoyo a las decisiones médicas

Los consumidores y pacientes que utilicen, una aplicación de chatbot de LLM puede ayudarles a tomar decisiones informadas sobre su asistencia sanitaria. El chatbot puede realizar comparaciones de productos o planes de varias alternativas de tratamiento, y explicar las ventajas e inconvenientes de cada opción utilizando diversas modalidades, como el vídeo. Esto ocurriría con la dispensación de consejos médicos o clínicos, ya que el chatbot sólo organizaría y resumiría datos y contenidos ya disponibles y facilitados al paciente. El chatbot funciona como una herramienta para comprender el contenido.

Ayuda a la navegación

Los LLM ayudan a los consumidores y pacientes a navegar por el complejo sistema sanitario para encontrar proveedores cualificados, concertar citas y comprender la cobertura del seguro. Utilizar un chatbot para buscar en Internet (por ejemplo, ratemds.com, vitals.com, healthgrades.com o Yelp) para encontrar y resumir las opiniones de los pacientes sobre un proveedor o un médico concreto podría ser fundamental para la salud. Aunque estas reseñas son subjetivas, una herramienta como un chatbot, que resume esos datos, permite al consumidor tomar una decisión más informada.

Apoyo emocional

Los LLM apoyan la salud emocional de consumidores y pacientes en . Los LLM pueden escuchar las preocupaciones, ofrecer ánimos y poner en contacto a los pacientes con otras personas que se enfrentan a retos similares. La naturaleza conversacional que promueven los LLM ofrece la oportunidad de entablar un diálogo que apoye y capacite a consumidores y pacientes.

Los LLM cambiarán el actual panorama de personalización al que se enfrentan los pacientes y consumidores, lo que conducirá a una mayor personalización de la asistencia sanitaria. Esto incluirá el apoyo del coaching, proporcionando información y recomendaciones más individualizadas. Los LLM podrían capacitar a los pacientes y consumidores para ser más responsables de su propia salud y bienestar, tomando decisiones bien informadas sobre su salud.

La elección de un chatbot impulsado por LLM radica en el poder de la IA conversacional que permiten los LLM.15 Algunos ejemplos de chatbots potenciados por LLM en la práctica podrían ser cualquiera de los siguientes:

  • Una persona con enfermedades crónicas podría utilizar un chatbot con capacidad LLM para seguir y documentar los síntomas, ayudar a gestionar las recetas y proporcionar información personalizada sobre cómo vivir bien.

  • Una enferma terminal que tenga que elegir entre operarse o no, podría utilizar un chatbot de LLM para cuantificar los riesgos y beneficios de cada opción y obtener consejos adaptados a su propio nivel de aversión al riesgo, como aportación a una conversación con su médico.

  • Un cuidador de un paciente con una enfermedad crónica, por ejemplo, podría utilizar un chatbot con tecnología LLM para coordinar citas y cuidados entre varios proveedores, proporcionar explicaciones y contexto de lo que han dicho los proveedores y ayudar a tomar decisiones.

En cada uno de estos ejemplos, un chatbot potenciado por LLM ofrece ciertas ventajas sobre un enfoque genérico de aprendizaje automático.

Comprensión del lenguaje natural

Ya hemos mencionado lo hábiles que son los LLM en la comprensión del lenguaje natural, lo que a su vez permite una entrada de lenguaje natural con sonido humano (por ejemplo, hacer preguntas sobre síntomas con nuestras propias palabras), que es más intuitiva y accesible en comparación con rellenar un formulario estructurado o una búsqueda basada en palabras clave.

Conciencia contextual

Los LLM pueden mantener el contexto durante el curso de una conversación y comprender cómo se relacionan entre sí las piezas de información, lo que permite al chatbot proporcionar respuestas más informativas y menos repetitivas o serpenteantes a las preguntas del paciente. A continuación, el bot puede hacer un seguimiento de cómo han cambiado sus respuestas a lo largo de su interacción con el paciente, basándose en el contexto de las declaraciones iniciales del paciente describiendo sus síntomas, los medicamentos prescritos y los factores de su estilo de vida.

Apoyo personalizado

Manteniendo un diálogo con el usuario y aprendiendo sobre sus situaciones y problemas específicos, un chatbot impulsado por LLM podría ofrecer consejos y sugerencias útiles adaptados al estado de salud de una persona, así como a su plan de tratamiento y a su estilo de vida, lo que podría ser más significativo y útil.

Apoyo pronóstico

Los LLM pueden derivar señales del flujo de información que un usuario proporciona a lo largo del tiempo, y sintetizar estas percepciones en qué tendencias se han producido en los historiales del paciente. Armado con todos estos datos, el chatbot podría, por ejemplo, señalar un problema al usuario o remitirle automáticamente a recursos útiles o cuidados preventivos de los que el algoritmo piense que podría beneficiarse, con el objetivo último de mejorar los resultados sanitarios.

Apoyo emocionalmente inteligente

Los LLM pueden ser entrenados para comunicarse con una voz comprensiva y de apoyo. Las personas que luchan con los retos diarios de una enfermedad crónica pueden beneficiarse de tener un compañero de conversación que les apoye para mantener la motivación y su salud mental.

Escalabilidad

La mayoría de los modelos ML requieren una formación explícita en los matices de cada nueva tarea o capacidad que quieras que realicen. Sin embargo, como los LLM pueden adaptar eficazmente su conocimiento ya general del lenguaje para dar soporte incluso a tipos de tareas muy diferentes en dominios temáticos muy distintos, resulta más fácil escalar y adaptar el chatbot para manejar necesidades de usuario más diversas y ampliar la amplitud y profundidad de su base de conocimientos con el tiempo.

Alternativamente, un modelo ML a medida podría basarse en entradas de datos menos estructuradas y en una lógica más simple, y podría no ofrecer mucho apoyo o un contexto más amplio. Esto, a su vez, podría significar menos personalización para el usuario, un ámbito de apoyo más superficial y estrecho, y más trabajo a lo largo del tiempo para construir y mantener.

Por ejemplo, un robot impulsado por LLM no necesita una definición de dolor mental ni una clasificación funcional. Esto sugiere que los LLM pueden funcionar sin categorías o definiciones rígidas y predefinidas, permitiendo interacciones más flexibles y matizadas. No obstante, aportaría sus propias capacidades -incluidas algunas de las ventajas de la interacción en lenguaje natural, la comprensión contextual y la integración "profunda" de conocimientos- para ofrecer un tipo de apoyo amplio y personalizado que parece prometedor para ayudar a las personas con enfermedades crónicas.

Los LLM contribuirán a igualar el acceso a la asistencia sanitaria. Los pacientes y consumidores podrán buscar y acceder a información y asesoramiento sanitarios de mayor calidad. Los profesionales sanitarios y el sistema sanitario en general estarán mejor capacitados para ayudar a hacer realidad el potencial de bienestar de los pacientes.

No se trata simplemente de que los LLM puedan hacer cosas por nosotros. Podemos utilizar los LLM y la IA generativa para que nos permitan estar más sanos y ser más felices. En la siguiente sección, esbozaremos algunas de estas futuras apps o aplicaciones.

Promesas y posibilidades de los LLM en Sanidad

Cada año mueren en todo el mundo ocho millones de personas en que habrían vivido si hubieran tenido mejor acceso a la asistencia sanitaria.16 La medicina y la asistencia sanitaria están en la cúspide de un tsunami de cambio a medida que los LLM y la IA generativa transforman fundamentalmente la medicina. Los LLM entrenados en grandes datos sanitarios y médicos, unidos a los avances de perímetro en inteligencia artificial, facilitarán una forma personalizada de asistencia sanitaria.

La combinación de los conocimientos captados en su corpus de formación con los datos de la historia clínica de un paciente tiene el potencial de hacer avanzar espectacularmente los sistemas de apoyo a la toma de decisiones clínicas y, en última instancia, mejorar la atención y los resultados para los pacientes. Los LLM pueden ayudar a los médicos a realizar diagnósticos más precisos, identificar el mejor tratamiento e incluso predecir el pronóstico del paciente.

En un futuro en el que los LLM se hayan incorporado a los sistemas de apoyo a la toma de decisiones clínicas, los médicos podrían tener acceso a un suministro casi inagotable de conocimientos médicos en el punto de atención. Con tales herramientas, los médicos podrían reducir los errores médicos. Los LLM creados para ayudar a los médicos que podrían estar a punto de cometer un error se alejan del peligro.

Los LLM podrían proporcionar a los médicos un grado de atención en tiempo real que nunca antes ha existido, mediante el seguimiento de las notas médicas en las HCE, los datos de los dispositivos domésticos y la información introducida por el paciente en las plataformas digitales. Este enfoque podría crear un sistema de alerta precoz de síntomas, signos y resultados de pruebas de laboratorio que sugieran un empeoramiento de la enfermedad. Al identificar precozmente los problemas de salud, los LLM ofrecen una gran oportunidad para ayudar a prevenir la aparición de enfermedades crónicas, que pueden afectar negativamente a la calidad de vida relacionada con la salud de los pacientes y a menudo suponen una elevada carga económica para el sistema sanitario.

Más allá de eso, los conocimientos derivados del LLM pueden informar sobre los enfoques de la salud de precisión, con el objetivo de optimizar la prevención primaria, secundaria y terciaria, así como las intervenciones terapéuticas según las características genéticas, ambientales y de estilo de vida de cada paciente. Como resultado, la sanidad de precisión podría diseñarse para optimizar las respuestas al tratamiento, aumentar el compromiso de los pacientes y el cumplimiento de los regímenes, y mejorar los resultados sanitarios, tanto para los individuos como para las poblaciones.

Dado el rápido progreso de los LLM, así como su inevitable integración en otras tecnologías disruptivas en el futuro, el potencial de la IA para desarrollar un sistema sanitario verdaderamente predictivo, preventivo e individualizado se multiplica. Los macrodatos para la asistencia sanitaria y la IA/LLM prometen hacer de la medicina preventiva y anticipatoria la nueva normalidad.

A medida que se introducen en los LLM nuevas funciones de IA, como el razonamiento agéntico, la generación aumentada por la recuperación y los avisos de mayor tamaño, aumenta el valor de los LLM. Pueden manejar consultas más precisas y matizadas, basadas en más "datos" médicos y de otros dominios específicos; razonar sobre escenarios hipotéticos; y responder a las preguntas con respuestas que parezcan contextualizadas y personalizadas. Hoy en día, los médicos pueden utilizar una de varias aplicaciones para preguntas médicas, como la aplicación UpToDate.17 La adopción de los LLM puede mejorar la funcionalidad de dichas apps en áreas como la búsqueda, el resumen, la interfaz de usuario, etc.

Imagina dos escenarios sanitarios, cada uno de ellos aprovechando el poder de las apps impulsadas por los LLM y la IA generativa. Estas apps de perímetro de IA integran a la perfección la IA conversacional, la funcionalidad de búsqueda avanzada y las capacidades de resumen inteligente, revolucionando la forma en que los pacientes y los consumidores interactúan con la tecnología y acceden a la información. Profundicemos en estos escenarios hipotéticos y exploremos el impacto potencial de estas apps impulsadas por la IA en la asistencia sanitaria.

En el primer escenario, una navaja suiza médica es el nombre de una aplicación para consumidores centrada en ayudar a pacientes y consumidores a participar y navegar por el sistema sanitario. En el segundo escenario, un Sherpa Médico es el nombre de una aplicación clínica diseñada para ser un compañero o asistente virtual de un médico. En ambos escenarios, los LLM se forman o aumentan con fuentes de conocimiento de confianza, datos clínicos, datos de farmacia, datos de HCE, etc.

Aplicación médica de navaja suiza para consumidores

Una empresa emergente de IA presenta un novedoso chatbot, construido utilizando un LLM específico para medicina. El chatbot es una aplicación sanitaria llamada Medical Swiss Army Knife, que orquesta capacidades multifuncionales para consumidores o pacientes en contextos sanitarios, como programar citas con el médico, resumir el historial de un paciente y escuchar el diálogo entre médico y paciente para ofrecer un resumen claro e inteligible de las instrucciones del médico. La Navaja Suiza Médica también ofrece orientación sobre proveedores para ayudar a los usuarios a navegar e identificar al probable proveedor óptimo para su dolencia.

David, un hombre de 75 años, está enamorado de su wearable Fitbit. A lo largo de varias semanas, recibe repetidamente una señal que detecta fibrilación auricular (FA) y se pone en contacto con su médico, que le remite a un cardiólogo. David toma medicación para la hipertensión y estatinas para controlar el colesterol. David se ha sometido recientemente a una prueba de puntuación de calcio que muestra que se encuentra en una categoría de alto riesgo. Su cardiólogo recomienda y realiza una ablación de fibrilación auricular, pero no soluciona el problema. Vuelven a ingresar a David en el hospital para administrar a su corazón una descarga eléctrica controlada y una cardioversión para restablecer un ritmo normal, pero sin resultado.

David se pregunta si hay alguna alternativa a la ablación de la FibA que deba considerar. Habla con su médico, que le aconseja que la AFib tiene buenos resultados y que deberían intentarlo de nuevo, ya que este hospital está especializado en este procedimiento para tratar la AFib. David tiene la aplicación Medical Swiss Army Knife en su iPhone, una descarga recomendada por su esposa Ann, y decide utilizarla para investigar su pregunta sobre las alternativas de ablación de la Fibrilación Auricular. La app Navaja suiza médica utiliza un LLM médico específico, un LLM fundacional como Google Gemini, combinado con datos de la historia clínica, el historial médico y la información sanitaria de David. La app informa a David de otro procedimiento, una ablación con catéter. Muestra a David vídeos verificados de un hospital de investigación preeminente y de un médico especializado en este procedimiento. David está intrigado y consulta con su médico, que le aconseja que se trata de un tratamiento alternativo que él no puede proporcionar y que David debería ponerse en contacto con el hospital de investigación para obtener más información.

La aplicación inicia una conversación con David sobre su prueba de calcio, que muestra un riesgo elevado. Informa a David de que lo más probable es que se realice una tomografía computarizada (TC) cardiaca en el centro de investigación antes de la ablación con catéter, para ayudar a su médico a anticipar posibles dificultades durante el procedimiento.

David utiliza la aplicación Medical Swiss Army Knife para ponerse en contacto con el hospital y concertar la cita telefónica inicial para obtener más información. David disfruta de la conversación y se siente iluminado, por lo que decide seguir el tratamiento en este hospital de investigación. La aplicación reserva la cita, el vuelo y el hotel. David entabla una conversación con la aplicación Navaja Suiza Médica para comprender mejor qué preguntas debe hacer. La aplicación sugiere a David que pregunte lo siguiente

  • ¿Cuál es el mejor plan de tratamiento para mí, dadas mis circunstancias?

  • ¿Cuáles son las distintas opciones de tratamiento disponibles y cuáles son los riesgos y beneficios de cada una?

  • ¿Cómo afecta la fibrilación auricular a mi corazón?

  • ¿Cuál es mi riesgo de ictus?

  • ¿Qué debo hacer si tengo un episodio de fibrilación auricular?

  • ¿Cuáles son las implicaciones a largo plazo de vivir con FibA?

El desarrollo de la app, por una empresa de renombre, emplea medidas de seguridad de última generación para proteger la privacidad del paciente. El diseño de la aplicación intenta evitar que se malinterprete la conversación o que se proporcione información inexacta:

Utilizar un conjunto de datos amplio y diverso para entrenar el LLM

Este conjunto de datos incluye conversaciones médicas. Esto ayuda al LLM a aprender los matices del lenguaje médico y a evitar cometer errores.

Utilizando técnicas de PNL de última generación

Estos métodos de PNL se utilizan para comprender eficazmente la conversación. Esto, a su vez, ayuda al LLM a señalar los aspectos esenciales del discurso y a abstenerse de hacer inferencias sin fundamento.

Incorporar las opiniones de médicos y pacientes

Esta aplicación mejora la precisión del LLM. El bucle de retroalimentación continua de la app ayuda a identificar las áreas en las que el LLM tiene dificultades y a realizar los ajustes necesarios .

Ofrecer transparencia a los usuarios

La aplicación permite a los usuarios informarse sobre su funcionamiento, y utiliza sus datos para ayudarles a comprender las limitaciones de la aplicación y a utilizarla de forma responsable.

La aplicación LLM Medical Swiss Army Knife recuerda a David que no es un médico y que no puede proporcionar asesoramiento clínico ni diagnósticos. Informa a David de que debe pedir consejo a su médico especialista en fibrilación auricular antes de tomar decisiones sobre su tratamiento. David y su mujer vuelan 3.000 km y se registran en el hotel recomendado junto al hospital. Ambos quedan inmediatamente impresionados cuando el cardiólogo llama por teléfono y pregunta si puede pasarse a saludar. Este servicio personal supera sus expectativas. Antes de la reunión con el médico, David abre la aplicación Navaja Suiza Médica para comprobar las preguntas que quiere hacerle. La aplicación pregunta a David si quiere que la aplicación escuche la conversación. David informa al médico de que está utilizando una aplicación que escuchará su conversación y le ayudará a entenderla mejor después. El médico sonríe y dice que por supuesto, y recuerda a David que estará encantado de responder a cualquier pregunta que tenga en cualquier momento antes o después de la operación.

Es lunes y ha llegado la hora del TAC previo al procedimiento para preparar la pinza de ablación Isolator Synergy para tratar la fibrilación auricular de David. El TAC muestra una obstrucción grave en las arterias principales, y el cardiólogo advierte a David de que corre un alto riesgo de sufrir un infarto, hasta el punto de que necesita una intervención inmediata a corazón abierto debido a la obstrucción.

David empieza a conversar con su aplicación Navaja Suiza Médica, preguntando si sus médicos locales deberían haber descubierto esta obstrucción. La aplicación informa a David de que tal vez no fuera necesario realizar más pruebas porque no tenía síntomas. También le aconseja que pregunte esto a su cardiólogo y a su médico local cuando tenga tiempo.

Sin utilizar la aplicación Navaja Suiza Médica, David habría permanecido únicamente en contacto con su cardiólogo local, sin ser consciente de su alto riesgo de sufrir un infarto. Aunque quizá sólo fuera fortuito, David nunca se habría sometido a la tomografía computarizada que mostraba una obstrucción grave de no ser porque buscó una ablación con catéter.

David entró en lo que se esperaba que fuera una operación de tres o cuatro horas, pero en cambio duró seis horas. El médico termina la operación y cuenta a la mujer de David, Ann, lo ocurrido. Le dice que el motivo de que la operación de David durara más tiempo es que tenía una anomalía física, que hacía que la sangre pasara de los pulmones al corazón de una forma que el médico nunca había visto ni que nadie conocido suyo hubiera experimentado nunca.

El médico subraya que lleva décadas haciendo esto, incluso trabajando con bebés con cardiopatías congénitas y anomalías de nacimiento, y que nunca ha visto nada parecido. Les llevó tiempo intentar llegar al fondo del asunto, y en lugar de utilizar una bomba para reciclar la sangre, tenían tres funcionando, lo que no era suficiente.

No podemos dejar de mencionar por qué Ann confiaba tanto en la aplicación médica LLM Medical Swiss Army Knife. Le habían diagnosticado leucemia LLC cuatro años antes. Tenía cita con un oncólogo un lunes y recibió una llamada de su hija el jueves anterior. Su hija era usuaria activa de la app Navaja Suiza Médica. La aplicación sugería que su madre obtendría mejores resultados en un hospital de investigación oncológica que en el hospital local donde tenía previsto recibir el tratamiento. Su madre no estaba muy dispuesta a cambiar la cita, pues le gustaba su oncólogo y el hospital local estaba a poca distancia en coche del hospital de investigación. Pero cedió, anuló la cita y pidió cita para ver a un oncólogo en el hospital de investigación.

El hospital de investigación tenía un plan de tratamiento ligeramente distinto, que incluía un fármaco recientemente disponible en la FDA, IMBRUVICA®. Ann quedó bastante satisfecha con los resultados y actualmente su cáncer está en remisión. Lo atribuye a su hija y a la aplicación que la dirigía a un centro de atención que producía mejores resultados en la leucemia LLC. Ann comprendió que los resultados clínicos podían diferir drásticamente en función del proveedor, y estaba encantada de haber conseguido que su marido, David, se pusiera en contacto con un experto en el tratamiento de la Fibrilación Auricular. Cree firmemente que eso salvó la vida de su marido. No es ningún secreto que los centros médicos que publicaron los resultados de la investigación obtuvieron puntuaciones elevadas de satisfacción de los pacientes y mostraron tasas reducidas de mortalidad de los pacientes en una variedad de afecciones y procedimientos médicos.18

Al aprovechar los amplios datos sobre los resultados clínicos de los proveedores, la aplicación Medical Swiss Army Knife, impulsada por un LLM, puede emparejar a pacientes individuales con los médicos estadísticamente preparados para proporcionar el tratamiento más eficaz para el perfil de afección y los factores de riesgo concretos del paciente.

Medical Sherpa App para clínicos

El Dr. Davis había sido médico de atención primaria en durante más de 20 años y lo había visto todo. Pero cuando su paciente, John, acudió para una revisión física rutinaria, el Dr. Davis observó algo que le hizo detenerse. John tenía un pequeño bulto en un lado de la garganta. "John", dijo el Dr. Davis. "Me gustaría ver más de cerca ese bulto que tienes en la garganta". John asintió, así que el Dr. Davis palpó el bulto con los dedos relajados y frunció el ceño. El bulto era firme y fijo, y no se movía bajo la suave presión de los dedos. "Me preocupa", dijo el doctor Davis, "que este bulto pueda ser cáncer". Continuó: "Te recomendaría que consultaras inmediatamente a un especialista para estar seguro". John parecía preocupado. "Pero no me encuentro mal", dijo. "No tengo ningún síntoma".

"A menudo, el cáncer puede ser asintomático al principio", añadió el Dr. Davis. A regañadientes, John accedió a ver a un especialista. El Dr. Davis consultó a su Medical Sherpa, una aplicación de diagnóstico LLM que podía cribar entre montañas de conocimientos fácticos.

El Dr. Davis describió el bulto a su Medical Sherpa. La aplicación le devolvió varias sugerencias, como solicitar una biopsia por aspiración con aguja fina (PAAF) -un método mínimamente invasivo para extraer una muestra celular del bulto- y remitir a John a un otorrinolaringólogo, el especialista adecuado para diagnosticar y tratar las afecciones de oído, nariz y garganta.

Siguiendo las orientaciones del sherpa médico, el Dr. Davis ordenó una biopsia por aspiración con aguja fina para John. También remitió a John a un otorrinolaringólogo. Varios días después, los resultados de la biopsia dieron positivo para cáncer. El Dr. Davis llamó a John y le dio una información asimétrica: "Siento decirte que tienes cáncer, pero lo hemos detectado pronto y aún puedes recibir tratamiento. ¿Estaría bien -preguntó el Dr. Davis a John- que mi sherpa médico te ayudara a concertar una cita con el otorrinolaringólogo para hablar de tus opciones de tratamiento?"

Medical Sherpa es una aplicación LLM orientada al médico que suelen utilizar los médicos que buscan una consulta. Una práctica bastante habitual en medicina son las consultas en pasillos, ascensores o aceras. Una aplicación Medical Sherpa es en esencia una consulta, aunque breve e informal, entre un médico y un LLM. El uso del nombre "sherpa" es adecuado porque, al igual que los guías que ayudan a los alpinistas a ascender al Everest, el sherpa médico ayudará a los médicos a navegar por terrenos médicos complejos. Se prevé que los LLM actúen como asistentes virtuales que ejercen junto a los médicos, ofreciendo sus puntos de vista y completando tareas. Sin embargo, un componente esencial de lo humano en medicina es la mano orientadora del juicio clínico.

Existen razones generales para que los sherpas médicos faciliten una asistencia mejor y más segura, así como ventajas específicas para los médicos. Por ejemplo, cuando los médicos trabajan con sus sherpas, obtienen un conocimiento próximo que no tienen cuando dependen de datos y análisis a distancia. Del mismo modo, el sherpa de las enfermeras, al estar junto a la cama, está en mejores condiciones de proporcionar apoyo y asesoramiento en tiempo real mediante la comunicación ubicua, lo que permite a la enfermera tomar decisiones más informadas.

Además, los sherpas médicos pueden ayudar a los proveedores a aumentar la productividad ahorrándoles tiempo. Con un acceso rápido y fácil a consultas y apoyo, médicos y enfermeras pueden utilizar el tiempo ahorrado para centrar su atención en otros aspectos críticos de su trabajo, lo que podría ayudar a mejorar los resultados de la asistencia sanitaria.

Además, al reducir el agotamiento de los proveedores, que se ha reconocido como un grave problema en la asistencia sanitaria, los sherpas médicos permiten a los clínicos dedicar más tiempo a atender a los pacientes y menos a formar a nuevos aprendices para cada caso. Tener a alguien con experiencia continuada en esta forma de atención puede suponer una gran diferencia en los niveles de experiencia y confianza de los clínicos aquí en casa. Juntos, estos beneficios pueden conducir a una mejor calidad de la asistencia a los pacientes y a un sistema más sostenible para el futuro.

Características emergentes de los LLM

Las aplicaciones basadas en LLM ocupan un interesante espacio entre una tentadora visión de futuro y una desalentadora serie de obstáculos que superar. Estamos muy cerca de un futuro en el que los sistemas basados en LLM puedan abordar tareas cada vez más complejas, liberar los impulsos creativos de la humanidad en nuevas direcciones y cambiar fundamentalmente la forma en que interactuamos con el mundo que nos rodea. Pero primero debemos progresar en las fronteras técnicas relacionadas con los datos, el rendimiento, la estabilidad y la seguridad.

Hay un lado humano en esto, aparte de la infraestructura tecnológica. Hay cuestiones relacionadas con la privacidad en torno a los LLM ávidos de datos. El sesgo, incorporado a los datos de formación, crea la necesidad de un monitoreo continuo y de estrategias proactivas de mitigación para evitar la reproducción de sesgos y daños en los entornos sanitarios.

Esto significa que, aunque todavía no hemos llegado a nuestro destino y aunque la tecnología por sí sola no nos llevará allí, estamos avanzando a pasos agigantados. El pensamiento social, ético y conceptual será vital para ampliar los enfoques de diseño responsable, haciendo de los LLM herramientas para mejorar la eficiencia y la eficacia de los médicos y las interacciones entre pacientes y médicos, evitando al mismo tiempo que se conviertan en herramientas de exclusión y perjuicio.

Los factores de forma actuales de las capacidades de las aplicaciones basadas en LLM ofrecen una amplia utilidad para la asistencia sanitaria, con el potencial de proporcionar comodidad de asistencia en los estilos de vida de los consumidores y en las operaciones sanitarias. Desde los comprobadores de síntomas de nuestros teléfonos inteligentes hasta el apoyo a la toma de decisiones clínicas en la oficina, los casos de uso de LLM amplifican el potencial para mejorar la asistencia sanitaria en numerosos puntos a lo largo del espectro de interacciones médico-paciente.

Aunque la verdadera innovación que cambia las reglas del juego sigue estando más allá del horizonte, hoy podemos ver que la IA ya está remodelando los espacios clínicos y la tecnología sanitaria de consumo para mejorar la eficiencia del flujo de trabajo y la atención al paciente. El libro AI-First Healthcare19 documenta numerosos ejemplos de cómo la IA mejora la asistencia sanitaria. Los LLM llevan la IA un paso más allá, y la toma de notas automatizada, los chatbots conversacionales y las tareas de resumen son sólo el principio.

Más que ninguna otra tecnología emergente, los LLM prometen un aumento continuo de los beneficios sociales: hacer que los sistemas existentes sean conscientes de los agujeros en los cuidados de las enfermeras, redirigir los árboles de decisiones y maximizar los resultados para cada paciente mediante la capacitación tanto del proveedor como del comprador. El aquí y ahora de este tratamiento optimista de nuestro futuro compartido está ocasionado por la llegada de los LLM de consumo y empresariales a nuestras vidas.

Se avecinan cambios emocionantes en el futuro próximo de los LLM, que incluyen la ampliación de las ventanas del prompt o lo que se denomina ventanas contextuales. El tamaño de la ventana sigue ampliándose, y los investigadores están trabajando en un prompt que permita un tamaño funcionalmente infinito.

Infinitas indicaciones de contexto

Los LLM con ventanas contextuales extensas o ilimitadas pueden ahora procesar simultáneamente datos de texto, audio y vídeo. Este avance abre nuevas y mejores posibilidades para los proveedores de asistencia sanitaria, los planes de salud y los pagadores. Es interesante para los médicos porque podría reforzar las consultas de los pacientes analizando diversos tipos de datos en tiempo real. He aquí algunas de las formas en que esta mejora de la IA podría transformar la asistencia sanitaria:

  • Los LLM con acceso a literatura médica, notas clínicas y directrices pueden ofrecer a los médicos recomendaciones basadas en pruebas para el diagnóstico, el tratamiento y la planificación de los cuidados en tiempo real. Sin embargo, como ocurre con los humanos, puede haber una pausa (es decir, latencia) en la respuesta, dependiendo de la complejidad de la consulta. Al evaluar los datos de los pacientes junto con la literatura médica y las buenas prácticas clínicas, los LLM podrían ayudar a los médicos a reducir los errores médicos y mejorar la toma de decisiones para mejorar los resultados de los pacientes.

  • Los modelos capaces de comprender y generar texto, audio y vídeo de sonido natural pueden permitir interacciones más significativas entre pacientes y médicos que traspasen las barreras lingüísticas. Los LLM podrían ayudar a transformar la información médica compleja en texto versátil de sonido natural que pueda ser comprendido por una mayor variedad de pacientes, responder a consultas comunes, ofrecer educación matizada al paciente que pueda personalizarse para satisfacer sus necesidades individuales y fomentar la intervención temprana. Estas interacciones podrían mejorar el compromiso, la adherencia y la satisfacción del paciente con la asistencia.

  • Diferentes LLM podrían ayudar a automatizar el papeleo y la documentación clínica, incluida la codificación y la facturación, agilizando los procesos sanitarios y liberando a los proveedores de la carga de la administración para que puedan pasar más tiempo clínicamente "cara a cara" con los pacientes. Hoy en día, empresas como Google ofrecen tecnología que permite utilizar LLM para resumir un correo electrónico con vídeo incrustado. Imagina cómo sería esto cuando el flujo de entrada no está limitado por un tamaño fijo.

  • Los modelos capaces de analizar audio y vídeo en tiempo real mejorarían la eficiencia y eficacia de los servicios de telemedicina y monitoreo a distancia, ayudando en las consultas a distancia.

  • Con la capacidad de analizar y sintetizar cantidades masivas de literatura y datos biomédicos, incluidas publicaciones científicas, datos de ensayos clínicos e historiales de pacientes, los LLM pueden agilizar la investigación médica y el descubrimiento de fármacos. Los clínicos podrían ahorrar tiempo con el poder del LLM para resumir datos de ensayos clínicos o notas de pacientes que abarcan años.

  • Los LLM podrían hacer posible la medicina personalizada y la asistencia sanitaria de precisión al ofrecer una asistencia adaptada a cada paciente en función de sus características únicas (por ejemplo, basándose en el perfil genómico, el estilo de vida y los datos del historial médico) para identificar factores de riesgo personalizados, la trayectoria de la enfermedad y las intervenciones y tratamientos terapéuticos. Un enfoque más personalizado de la asistencia, potencialmente posibilitado por los LLM, podría aumentar la eficacia y la eficiencia de la prestación de asistencia sanitaria optimizando los resultados de los pacientes.

La promesa de una asistencia sanitaria personalizada sería un gran paso adelante. Los LLM con infinitas ventanas contextuales o avisos podrían procesar y almacenar grandes cantidades de literatura médica, datos de ensayos clínicos, historial médico del paciente y datos clínicos, permitiendo una base de conocimientos médicos completa y actualizable para un paciente o consumidor. Los chatbots impulsados por tales LLM se ampliarían a conversaciones multiturno más complejas, creando experiencias intuitivas y atractivas para el consumidor. El ex director general de Google, Eric Schmidt, considera que la expansión de las ventanas de consulta infinitas se producirá en los próximos cinco años.20

Razonamiento Agencial

El razonamiento agéntico representa otra evolución de la IA en la que los sistemas pueden actuar de forma autónoma. Andrew Ng, informático e investigador en IA, ofrece interesantes perspectivas sobre la naturaleza del razonamiento agéntico, y describe cuatro características o patrones clave del razonamiento agéntico que exploraremos en este capítulo: los patrones de reflexión, uso de herramientas, planificación e interacción multiagente.

"El razonamiento agenético está en el corazón de la creación de agentes que puedan emprender acciones encaminadas a lograr objetivos", dice Andrew Ng,21 profesor adjunto de informática en la Universidad de Stanford y cofundador de Coursera, una empresa que ofrece cursos online masivos y abiertos. Como explica Ng, significa la capacidad de un sistema de IA para sentir, desear, creer y actuar, estableciendo y modificando así objetivos, tomando decisiones en condiciones de incertidumbre, aprendiendo de sus experiencias e interactuando y razonando con humanos y otros agentes de IA de forma natural y eficaz. El reto de lograr el razonamiento agéntico entre agentes de IA, señala, exige avances significativos en múltiples áreas, como el aprendizaje automático, la PNL, la representación del conocimiento y el razonamiento bajo incertidumbre.

Los cuatro patrones del razonamiento agéntico

El patrón de reflexión en el razonamiento agéntico ayuda a la IA a mejorar su rendimiento basándose en lo que ha hecho anteriormente. El patrón de reflexión permite a un sistema de IA sanitaria reflexionar sobre sus elecciones, identificar formas de mejorar los resultados y desarrollar continuamente su enfoque de la atención al paciente. Por ejemplo, un agente de IA diseñado para proporcionar a los médicos recomendaciones de diagnóstico y tratamiento de una enfermedad compleja podría adoptar el patrón de reflexión. El agente se habría entrenado inicialmente con un gran conjunto de datos diversos de historiales de pacientes, bibliografía y directrices clínicas, y luego haría recomendaciones al clínico teniendo en cuenta los datos prevalentes.

Diagnóstico inicial y plan de tratamiento

Cuando se presenta el caso de un nuevo paciente, el agente analizará los síntomas del paciente que se presenta, sus antecedentes médicos y los resultados de las pruebas, y luego proporcionará un diagnóstico inicial y un plan de tratamiento. El agente utilizará sus datos de entrenamiento y aplicará su razonamiento agéntico a la situación, así como los datos modelados sobre los módulos que la componen, para determinar cuál es probablemente la verdadera causa del estado del paciente y cuál será el mejor plan de tratamiento.

Reflexión sobre los resultados

Una vez que un paciente se somete a un plan de tratamiento, el agente de IA monitorea el curso y los resultados del paciente a medida que avanza. Lo que consiga el paciente se comparará con lo que el agente predeciría para el mismo paciente dadas sus recomendaciones iniciales. Si el paciente mejora como esperaba el agente, éste se reforzará y tendrá más confianza en casos similares en el futuro.

Pero si el estado del paciente no mejora o si el resultado no es óptimo después de un cierto periodo, el agente de IA examinaría por qué tomó la decisión que tomó, analizando sus algoritmos, los datos que utilizó y las suposiciones que incorporó.

Adaptación y aprendizaje

Sobre la base de este análisis reflexivo, la AGI deja que el caso del paciente ancle el ajuste que debe realizar en su modo de toma de decisiones. Por ejemplo, la AGI podría añadir un registro de los hallazgos clínicos a sus conocimientos previos, perfeccionar un algoritmo para incorporar un matiz específico del paciente conocido empíricamente o revisar una lista de recomendaciones de tratamiento para reducir las probabilidades de una complicación conocida.

Fundamentalmente, este proceso de entrenamiento adaptativo significa que el agente aprende continuamente a realizar más acciones que mejoran su comportamiento a largo plazo y, en última instancia, a hacer mejores recomendaciones, reduciendo las posibilidades de error y propiciando remedios más adecuados. Cuando haya experimentado con más pacientes y participado en este proceso de acción posterior, podrá diagnosticar y tratar problemas médicos más complicados.

Compartir ideas y aprendizaje colaborativo

Este conocimiento puede compartirse entre los agentes de IA y los expertos humanos mediante los conocimientos reflexivos que adquieren, potenciando así el co-aprendizaje y el cokonocimiento entre humanos y agentes de IA. Por ejemplo, varios agentes de IA pueden trabajar en colaboración para reconocer patrones y generar estrategias de tratamiento novedosas y una atención al paciente refinada a gran escala.

El agente de IA puede proporcionar información a los médicos humanos, señalándoles los puntos en los que deben actualizar su práctica clínica o necesitan esfuerzos de investigación adicionales. Entablando este tipo de diálogo entre humanos y máquinas, podemos, en última instancia, mejorar la naturaleza híbrida del trabajo entre humanos y máquinas.

La estructura reflexiva del razonamiento agéntico permite a los agentes de IA que trabajan en la asistencia sanitaria aprender de sus experiencias, ajustar sus estrategias y mejorar continuamente su capacidad para diagnosticar y tratar a los pacientes. Mediante un proceso continuo de reflexión y aprendizaje colaborativo con expertos humanos, los agentes de IA pueden convertirse en un complemento de la asistencia humana, mejorando la calidad, la eficiencia y la eficacia de la prestación de asistencia sanitaria. Es imprescindible que el proceso reflexivo esté adecuadamente dirigido e informado por sólidos principios éticos, y que siempre haya supervisión humana para evitar negligencias imprevistas y mantener los más altos niveles de atención.

El patrón de uso de herramientas en un razonamiento agéntico permite a los agentes de IA aprovechar ampliamente las herramientas y los recursos externos, yendo más allá del aprendizaje automático, la visión por ordenador o la PNL para ampliar su ámbito de resolución de problemas y su proceso de toma de decisiones aprovechando los recursos externos y las capacidades de conocimiento. En el caso de la medicina, el patrón de uso de herramientas puede permitir a los sistemas de IA "tomar prestados" recursos médicos mediante la incorporación de herramientas médicas, bases de datos, servicios y todas las demás aportaciones externas existentes, como profesionales médicos como enfermeras, médicos, cuidadores y otros. Estas aportaciones pueden proporcionar una atención al paciente basada en principios y centrada en el ser humano, basada en conocimientos clínicos actualizados y en la toma de decisiones profesionales, en lugar de limitar los sistemas de IA a una toma de decisiones de "caja negra" que se base exclusivamente en ejemplos de aprendizaje automático. Veamos la medicina de precisión e ilustremos cómo puede aplicarse el patrón de uso de herramientas.

Un agente de IA sanitaria ayuda a los médicos a desarrollar planes de tratamiento individualizados para sus pacientes de cáncer. Para ello, el agente utiliza el razonamiento agéntico para analizar los datos del paciente y encontrar opciones de tratamiento óptimas que el paciente pueda seguir, y el agente también monitorea el progreso del tratamiento. Para mejorar aún más sus recomendaciones de tratamiento, el agente emplea el patrón de uso de herramientas para acceder y también combinarse con recursos y servicios externos.

Herramientas de análisis genómico

Un agente de IA mina la caja de herramientas del análisis genómico para recoger y dar sentido a la información genética del paciente. Armado con bases de datos de variantes genómicas y sus implicaciones clínicas conocidas, puede identificar posibles factores de riesgo genético, sugerir probables respuestas a fármacos y prescribir una terapia específica basada en el perfil molecular individual del paciente.

Servicios de diagnóstico por imagen

Los servicios de imágenes médicas -como las API de visión por ordenador- en los que se basa el agente de IA analizan las exploraciones de los pacientes (RM, TC o PET) para detectar y caracterizar la presencia y forma de los tumores, así como los efectos del tratamiento y la progresión de la enfermedad. Esta información, combinada con la procedente de otros datos del paciente, alimenta la evaluación general del estado del paciente por parte del agente de IA.

Sistemas de historiales médicos electrónicos (HCE)

Utilizar los sistemas de HCE para acceder a los diagnósticos, tratamientos y resultados anteriores del paciente de ayudará al agente de IA a construir un enfoque más preciso del tratamiento real. Por ejemplo, en lugar de consultar la HCE de ese paciente concreto, puede consultar las HCE de otros pacientes para obtener una visión más completa del estado de salud del paciente e identificar potencialmente factores de riesgo o comorbilidades, que pueden afectar a la selección del régimen de tratamiento. Con acceso a los datos de un sistema integrado de HCE y otros hospitales relacionados, el agente de IA podrá generar un plan de atención más personalizado y las decisiones relacionadas.

Bases de datos de ensayos clínicos

El agente de IA busca en las bases de datos de ensayos clínicos ensayos relevantes para la enfermedad del paciente y, a continuación, examina los criterios de elegibilidad para los ensayos, los datos sobre cómo tratar a los participantes y los datos sobre los resultados. Esto permite al agente de IA hacer una recomendación sobre los ensayos a los que podría beneficiarse un paciente o utilizar los datos de los ensayos para sus recomendaciones sobre el tratamiento.

Comprobadores de interacciones medicamentosas

El agente de IA utiliza comprobadores de interacciones farmacológicas para evaluar los tratamientos oncológicos propuestos en busca de posibles interacciones con la medicación actual del paciente. A continuación, recomienda medicamentos alternativos o cambios de dosis en función del resultado, como forma de minimizar los efectos adversos de los fármacos o las contraindicaciones, al tiempo que se maximiza la eficacia.

Utilizando estas herramientas y servicios, el agente de IA puede ofrecer a los médicos un enfoque integrado hacia la medicina de precisión, recopilando los datos relevantes de distintas fuentes y proporcionando consejos personalizados sobre el tratamiento mediante gráficos de conocimiento y puntuaciones probabilísticas. Este enfoque es factible porque el agente puede rastrear revistas, buscar textos médicos, descargar, almacenar imágenes e integrar datos dispares de forma probabilística. Puede utilizar el historial médico, los datos genéticos y los datos de imagen del paciente para sugerir terapias adecuadas, incluidas posibles prescripciones, basadas en interacciones farmacológicas menos conocidas.

Además, como el agente de IA toma algunas de las decisiones sobre nuevos datos de investigación, directrices clínicas y vías de tratamiento nuevas o no probadas, el perfil de uso de herramientas del agente se autoactualiza en gran medida, cambiando con los patrones evolutivos de descubrimiento en los cánceres humanos. Por tanto, el agente utilizará los mejores y más actualizados conocimientos disponibles.

Y a medida que se desarrolle el campo del razonamiento agéntico en la atención sanitaria, este patrón de uso de herramientas llegará a desempeñar papeles importantes en la construcción de sistemas de IA que puedan capturar, combinar y manejar grandes cantidades de datos médicos diversos necesarios en la medicina de precisión para proporcionar una mejor atención al paciente, siempre que los servicios utilizados externamente para lograr estos resultados respeten unas normas sólidas de privacidad, seguridad y ética de los datos, con el fin de mantener la privacidad de los pacientes y la integridad del sistema sanitario.

El patrón de planificación en el razonamiento agéntico es esencial para dotar a los agentes de IA de la capacidad de elaborar planes de alto nivel para alcanzar sus objetivos y optimizar los procesos. Esto significa que, en el ámbito de la sanidad, un sistema de IA con capacidad de planificación podría utilizarse para analizar el caso detallado de un paciente, anticipar posibles resultados y decidir cuál es el mejor plan de tratamiento antes de crearlo, integrando una amplia gama de factores y parámetros. Consideremos, por ejemplo, el caso de un agente de IA diseñado para ayudar a los médicos a tratar a pacientes con enfermedades crónicas, como diabetes, hipertensión o enfermedades cardiovasculares. En este caso, el agente utiliza el razonamiento agéntico para analizar los resultados de un examen físico, secuenciar los síntomas que surgen, identificar los factores que ponen al paciente en riesgo de empeorar su salud y, a continuación, crear recomendaciones estratégicas y adaptativas para obtener resultados de salud a largo plazo.

Establecimiento de objetivos y descomposición del problema

El agente de IA empieza con un objetivo abstracto de optimizar los resultados sanitarios y la calidad de vida del paciente, y lo desglosa en subobjetivos más pequeños y específicos: mantener el nivel de azúcar en sangre del paciente en un rango óptimo, reducir la tensión arterial a un nivel más seguro, minimizar el riesgo de amputación o de complicaciones renales, etc. Al dividir el problema general en distintos subproblemas, el agente puede formular y llevar a cabo acciones que se ajusten a cada aspecto concreto del estado del paciente.

Análisis de datos y evaluación de la situación

Después, el agente de IA intenta reflejar toda la situación médica del paciente según su contexto. Tiene en cuenta el historial médico del paciente, su estado de salud actual y el contexto ambiental, así como su estilo de vida y cualquier idiosincrasia identificable. Esto incluye la capacidad de integrar datos de HCE, wearables y resultados comunicados por el paciente.

Generación y evaluación de planes

A partir de esta evaluación de la situación, el agente de IA genera distintos planes de tratamiento posibles que abordan los subobjetivos definidos. Por ejemplo, puede incluir uno que implique utilizar una combinación diferente de ajustes de la medicación, cambios en el estilo de vida y derivaciones a especialistas. El agente evalúa cada plan teniendo en cuenta la eficacia y los efectos secundarios previstos, las preferencias y la aceptación del paciente, los recursos disponibles, etc., utilizando datos conocidos y predicciones probabilísticas antes de decidir qué curso de acción recomendar.

Selección y adaptación del plan

El agente de la IA elegiría el plan de tratamiento con el mejor valor en su opinión, sopesando los beneficios frente a los riesgos del tratamiento. Luego comunicaría el plan seleccionado, con la justificación correspondiente, al médico y al paciente, quizá también con instrucciones o apoyo para poner en práctica las recomendaciones.

Mientras que el médico diseña el plan de tratamiento, la IA monitorea el desarrollo del plan y examina los resultados. Si el estado del paciente no sigue la trayectoria prevista, el agente vuelve a planificar. El tratamiento responde a la nueva información, como cambiar las dosis de medicación o introducir diferentes intervenciones o recomendaciones sobre el estilo de vida.

Seguimiento y perfeccionamiento continuos

El agente de IA vuelve a comprobar más tarde con la paciente cómo le ha ido y si el plan de tratamiento es útil o requiere ajustes. También está atento a los riesgos y acontecimientos adversos de los efectos secundarios. Cuando puede identificar patrones en los datos de la propia paciente y compararlos con la trayectoria de casos similares, el agente puede alterar sus estrategias de planificación para protegerse mejor contra problemas de salud emergentes.

Esta estructura de planificación del razonamiento agéntico puede ayudar a los agentes de IA en el contexto sanitario a idear estrategias ejecutivas y dinámicas de gestión de los cuidados en enfermedades crónicas. El agente de IA descompone los complejos problemas de salud en subobjetivos significativos, ejecuta procedimientos de compleción de patrones utilizando los datos disponibles del paciente, realiza una lluvia de ideas sobre las opciones de alimentación y eliminación, proporciona un análisis de las consecuencias esperadas y monitoriza y autoajusta su estrategia. De este modo, el agente de IA puede ayudar al médico a proporcionar una atención personalizada y basada en pruebas, equilibrando los costes a corto plazo con los beneficios para la salud a largo plazo.

Es poco probable que el patrón de planificación sea el único patrón necesario a medida que avancemos en el apasionante campo del razonamiento agéntico en la asistencia sanitaria. Pero será esencial para crear sistemas de IA que ayuden a los clínicos en la gestión de las enfermedades crónicas que constituyen una parte importante de la población de pacientes, y los mantendrá en el camino hacia una asistencia sanitaria equitativa. Debemos proteger el proceso de planificación, guiándolo con principios éticos, buenas prácticas clínicas y valores centrados en el paciente, para proteger a las personas de planes de tratamiento inseguros, ineficaces e inaceptables que puedan surgir a medida que la carga de trabajo sanitario siga añadiendo tareas mundanas para los médicos.

El patrón de colaboración multiagente es el medio por el que la arquitectura agéntica realiza el trabajo colaborativo de diversos agentes, se les conceda o no agencia, a través de distintos niveles de la ontología agéntica. El reconocimiento colectivo de eventos requiere el conocimiento y la evaluación de un evento por parte de dos o más agentes. En el ámbito sanitario, el patrón de colaboración multiagente entra en juego cuando dos o más agentes inteligentes -que pueden considerarse sistemas de IA y profesionales sanitarios independientes de amplio alcance- coordinan su trabajo, comparten el conocimiento o la percepción del estado y toman decisiones y acciones basadas en objetivos o subobjetivos compartidos.

Imagina un paciente que padece todo tipo de dolencias a largo plazo -diabetes, hipertensión, enfermedades cardiovasculares, etc.- y necesita asesoramiento, monitoreo y tratamiento de una amplia gama de profesionales sanitarios (por ejemplo, un equipo multidisciplinar de médicos, enfermeras, dietistas, trabajadores sociales y psicólogos). En una situación así, podrían desplegarse diversos agentes de IA para ayudar a los miembros del equipo de profesionales sanitarios, por ejemplo, para ayudarles a optimizar la elección de la medicación, ofrecer asesoramiento sobre el estilo de vida, coordinar la atención, etc. Estos agentes de IA emplean el razonamiento agéntico y el patrón de colaboración multiagente para aunar habilidades y memoria de trabajo con el fin de ofrecer una atención coordinada, bien orientada y bien informada.

Objetivos compartidos y comprensión del problema

El agente de IA y el experto humano definen conjuntamente el estado de salud del paciente, los objetivos del tratamiento y los posibles obstáculos. Por último, co-construyen un plan de cuidados personalizado, en el que los puntos fuertes respectivos del humano y del algoritmo ayudan a proporcionar el mejor tratamiento posible para las necesidades médicas, psicológicas y sociales del paciente.

Asignación de tareas y coordinación

Específicamente para sus tareas asignadas, los agentes de IA asignan parte del trabajo. El agente de optimización de la medicación puede escanear las recetas del paciente en busca de interacciones entre fármacos y sugerir formas de optimizar la eficacia y la seguridad. El agente de asesoramiento sobre el estilo de vida puede personalizar recomendaciones sobre dieta, ejercicio y control del estrés para complementar el régimen de autocuidado del paciente.

El agente de coordinación asistencial se sitúa en el centro, recopilando información de la miríada de agentes asistenciales y conectando a cada uno de ellos con la información específica que necesitan. El agente de coordinación asistencial también se asegura de que los demás agentes y expertos humanos conozcan el estado actual del paciente, los cambios de estado y los cambios de plan asistencial.

Compartir información e intercambiar conocimientos

Los agentes de IA y los expertos humanos intercambian constantemente información y conocimientos que apoyan la toma de decisiones colectiva y la resolución de problemas. Transmiten datos de los pacientes, recomendaciones de tratamiento y perspectivas clínicas a través de canales encriptados y formatos de datos estandarizados, de modo que cada agente y experto pueda aprovechar los conocimientos colectivos de todo el grupo y actualizar sus estrategias en consecuencia. Por ejemplo, si el agente de optimización de la medicación detecta un posible efecto adverso de un fármaco, se lo comunica al agente de coordinación de la atención, que a su vez alerta a los expertos humanos, pero también a otros agentes de IA. El equipo evalúa lo que está ocurriendo y genera un relato del suceso. Consideran si deben retirar el fármaco infractor y sustituirlo por una opción diferente. En caso afirmativo, actualizan el plan de cuidados.

Resolución de conflictos y creación de consenso

Si hay recomendaciones u opiniones contradictorias entre los agentes de IA o los humanos, el patrón de colaboración multiagente les permite entablar argumentaciones y diálogos, negociar las compensaciones y llegar a un consenso con la ayuda de métodos de argumentación, votación o análisis de decisiones multicriterio. Este patrón de colaboración garantiza que la decisión acordada sea "en el mejor interés del paciente".

Aprendizaje y adaptación continuos

Si el estado del paciente cambia y se dispone de nuevos datos, los agentes de IA y los expertos humanos aprenden nuevas estrategias para el proceso de coordinación asistencial, intercambiando consejos (por así decirlo) que ayuden a que sus estrategias sean más eficaces y eficientes. Los múltiples agentes interactúan para aprender de los éxitos y fracasos de los demás y desarrollar nuevos enfoques ante los nuevos retos que surjan con el tiempo.

Este patrón de colaboración multiagente a partir del razonamiento agéntico permite a los agentes de IA y a los expertos humanos en atención sanitaria trabajar juntos de forma coordinada para proporcionar una atención holística y personalizada a los pacientes con necesidades sanitarias complejas. Definir un objetivo compartido, asignar tareas, compartir conocimientos, resolver conflictos y aprender y adaptarse son algunos de los componentes que pueden ayudar al equipo a aprovechar la inteligencia colectiva para tener un mayor impacto en la optimización de los resultados de los pacientes y en la mejora de la calidad y la eficacia de la prestación de cuidados.

Dado que el razonamiento agéntico en la asistencia sanitaria apenas está empezando a evolucionar, es probable que el patrón de colaboración multiagente cobre aún más importancia en el diseño de sistemas de IA que puedan trabajar codo con codo con sus homólogos humanos, e incluso "aprender de ellos" para complicar los cada vez más diversos e interconectados paisajes de la asistencia sanitaria. Y serán necesarios controles éticos, normativos y reglamentarios para mantener la seguridad, la privacidad y la confianza de los pacientes y los médicos.

Retos y orientaciones futuras

Estos cuatro patrones diferentes de razonamiento agéntico brindan la oportunidad de escalar la IA a niveles humanos de inteligencia en muchas áreas. Por supuesto, quedan enormes retos por delante para determinar cómo garantizar que los agentes de IA agéntica interactúen con los humanos de forma segura, ética y alineada. Esto implicará, por ejemplo, desarrollar marcos sólidos para la alineación de valores, así como mecanismos para exigir responsabilidades a dichos agentes y garantizar la equidad en sus operaciones.

Un segundo reto es integrar los cuatro patrones de razonamiento centrados en el agente en arquitecturas de IA unificadas, flexibles y escalables, lo que podría requerir avances en el aprendizaje por transferencia, el aprendizaje multitarea y el aprendizaje abierto para permitir que los agentes de IA aprendan conocimientos en una tarea o situación para ayudar a resolver otra.

Es probable que las tecnologías de razonamiento agenético avancen mucho a largo plazo. Lo que sigue siendo muy interesante de esta área de investigación es que no se ha hecho tanto trabajo para que los investigadores se dediquen a ella. Pero sin duda es posible prever que, con el tiempo, veamos sistemas de IA que reflexionen y quizá utilicen herramientas, planifiquen y aprendan con formas de razonamiento y colaboración cada vez más complejas. Tales avances podrían transformar muchos campos, desde la sanidad, la educación y el transporte hasta la fabricación y más allá.

Contexto de uso de los LLM

Comprender los casos de uso previsibles de las apps LLM reconoce la importancia central del "contexto de uso".22 un término acuñado por Margaret Mitchell, a la hora de crear aplicaciones LLM de asistencia sanitaria. Quizás el pensamiento de Mitchell se basa en una práctica de ingeniería de software de larga tradición, la ingeniería centrada en el ser humano. Dado que las aplicaciones LLM sanitarias son tan abiertas en cuanto a posibles indicaciones al usuario, ofrecen casos de uso interesantes para mejorar los sistemas sanitarios de todo el mundo, aunque también plantean retos a la hora de predecir preventivamente las interacciones del usuario.

A diferencia de los objetos físicos, que pueden tener un número finito de usos previstos, la mayoría de las aplicaciones de software son tan abiertas en sus interacciones que no podemos predecir completamente cómo las utilizarán finalmente los usuarios finales. Una silla puede utilizarse para un número finito de usos (como sentarse), pero una aplicación es ilimitada. Se puede desarrollar un modelo de aprendizaje automático para predecir enfermedades crónicas. Un modelo de enfermedad puede desarrollarse para predecir una enfermedad específica, como una enfermedad cardiaca o la obesidad. Otro usuario u organización puede optar por utilizar un modelo de aprendizaje automático específico para determinar el coste de la concesión de la cobertura del seguro médico, mientras que otro usuario puede optar por aplicar el mismo modelo de aprendizaje automático para denegar la cobertura del seguro médico.

La flexibilidad del software significa que los usuarios pueden adaptarlo a su tarea utilizando una aplicación de la forma que mejor se adapte a sus necesidades particulares, flujos de trabajo y usuarios. Esta aplicación de productividad podría estar diseñada para la gestión de tareas, pero podría utilizarse como herramienta de colaboración en proyectos. La apertura del software -posible gracias a esta flexibilidad intrínseca- significa que las organizaciones o empresas que crean ese software también deben estar preparadas para el reto último de la explotación humana. Con respecto al chatbot impulsado por LLM, la flexibilidad de la interacción en lenguaje natural significa que su pronta apertura es difícil de anticipar o restringir en términos de contexto y resultados potenciales. Es posible que los usuarios hagan preguntas (o peticiones) que no estén previstas en el ámbito establecido para el chatbot. Es posible que los usuarios intenten manipular sus respuestas para provocar resultados perjudiciales o inadecuados.

Por ejemplo, alguien que busque un diagnóstico podría preguntar a un chatbot de bienestar que se construyó para discusiones generales relacionadas con la salud, lo que podría generar suposiciones erróneas o inseguras. Incluso el más desenfadado de los chatbots corre el riesgo de chocar con una interacción hostil o abusiva de un bot de atención al cliente que sea injustamente criticado por sus errores.

Mitigar estos riesgos requerirá que los desarrolladores de chatbots potenciados por LLM construyan capas de seguridad, códigos éticos y herramientas de moderación de contenidos. Los ejemplos podrían incluir el uso de formas de prueba contradictorias -en las que un sistema se expone deliberadamente a la gama más amplia posible de entradas de usuarios para identificar agujeros en su entrenamiento y especificación de representatividad- para garantizar que, por ejemplo, pedir al bot que no sea grosero no le haga soltar comentarios racistas. Sea cual sea la estrategia adoptada, los desarrolladores deben asegurarse de que los límites y las expectativas de imposibilidad se establecen y comunican claramente a los usuarios, para reducir el riesgo de que un usuario intente forzar al bot a hacer lo imposible.

En segundo lugar, como ya se ha dicho, los chatbots impulsados por LLM deben ser constantemente monitoreados y refinados para garantizar que siguen funcionando como se desea. Los desarrolladores deben fundamentar este proceso buscando activamente la opinión de los usuarios sobre sus experiencias diarias con sus chatbots. Los desarrolladores también deben examinar los patrones de las interacciones. Deben someter las entradas y los comentarios a un análisis más profundo, y actualizar las bases de conocimientos y los sistemas de respuesta en consecuencia, para optimizar el rendimiento de los chatbots en las nuevas condiciones creadas por sus usuarios.

En resumen, la naturaleza abierta de las aplicaciones de software, incluidos los chatbots impulsados por el LLM, puede presentar oportunidades y salvaguardas para anticipar, planificar y abordar las interacciones de los usuarios. La naturaleza abierta de un chatbot impulsado por LLM permite a los creadores prever usos novedosos dentro de su marco que pueden ser beneficiosos para los usuarios. El carácter abierto de un chatbot impulsado por LLM también puede dar lugar a usos imprevistos y perjudiciales. Sin embargo, mediante la aplicación de salvaguardias, guías de moralidad y un monitoreo y mejoras continuos, los creadores pueden mejorar la experiencia de los usuarios al utilizar chatbots impulsados por LLM.

Tanto si se trata de vetar resultados de búsqueda políticamente sesgados como de detectar marcadores lingüísticos de demencia, está claro el valor de aplicar el contexto a las aplicaciones LLM. Si diseñamos las aplicaciones LLM teniendo en cuenta el contexto, podemos crear herramientas sanitarias más sólidas, éticas y beneficiosas para los pacientes. Las aplicaciones LLM deberían hacer lo siguiente

  • Fomentar el uso responsable proporcionando interfaces claras, material educativo para los médicos y transparencia sobre los límites de la IA.

  • Aplica salvaguardas contra los escenarios de uso indebido identificados (por ejemplo, controles de seguridad para los datos, medidas preventivas para desactivar el apilamiento contra salidas sesgadas).

  • Dejar que la IA mejore sobre sí misma a medida que se despliega de forma adaptativa en nuevos contextos. Los ajustes podrían producirse mediante el monitoreo de la IA en uso en el mundo (en la medida de lo posible) y el ajuste del modelo hacia cualquier problema que surja.

LLM en Consumo y Empresa

Hoy en día, tenemos apps y aplicaciones divididas básicamente en dos grupos, de consumo y empresariales. Tienen fines distintos y se dirigen a usuarios diferentes. Las apps o aplicaciones empresariales suelen estar diseñadas para los empleados de una empresa. Sin embargo, también tenemos empresas que crean apps para que sus clientes accedan a planes de salud, conozcan las prestaciones, concierten citas y mucho más. Quizá los mayores ejemplos de apps para consumidores se encuentren en áreas de redes sociales, entretenimiento, productividad, juegos y comercio, por nombrar algunas.

En sanidad, vemos aplicaciones médicas diseñadas para facilitar la salud personal. Aplicaciones para programar visitas médicas a domicilio (p. ej., ZocDoc), aplicaciones de terapia (p. ej., Talkspace), aplicaciones de telesalud (p. ej., Doctor on Demand), aplicaciones de salud femenina como Maven, y muchas más. Esperamos que con el tiempo surjan más aplicaciones basadas en el LLM sanitario que cubran muchos de los casos de uso descritos en los Capítulos 3, 4 y 5.

Los LLM de consumo y la IA Generativa

Este libro explora una hipótesis clave: el auge de las aplicaciones centradas en el consumidor impulsadas por LLM transformará significativamente la asistencia sanitaria. Se espera que estas aplicaciones, que aprovechan la capacidad de los LLM para resumir información y generar contenidos, lo hagan:

  • Mejorar la relación médico-paciente

  • Ayudar a las personas a gestionar mejor sus enfermedades crónicas y su salud en general

  • Y lo que es más importante, intervenir para retrasar o prevenir la aparición de enfermedades crónicas

Al aprovechar las capacidades de los LLM, estas aplicaciones de consumo tienen el potencial de revolucionar la gestión personal de la salud y la atención preventiva.

Los LLM de consumo están diseñados para usuarios individuales, y ofrecen diversas aplicaciones y funcionalidades adaptadas a las necesidades e intereses personales. Estos LLM incluyen modelos como chatbots, asistentes virtuales y generadores de contenidos. He aquí algunas características clave de los LLM de consumo:

Asistentes conversacionales

Los LLM de consumo, como los asistentes virtuales (por ejemplo, Siri, Google Assistant), se desarrollan para ayudar a los usuarios a establecer recordatorios, responder a preguntas de conocimiento general, enviar mensajes y reproducir música. Están diseñados para la comodidad cotidiana.

Compromiso y entretenimiento

Los LLM de consumo suelen diseñarse para proporcionar experiencias interactivas -como asistentes conversacionales de IA, chatbots o herramientas de escritura creativa- que pretenden atraer y entretener a los usuarios.

Generación de contenidos

Algunos LLM de consumo pueden generar texto, lo que puede ser útil para tareas como redactar correos electrónicos, escribir contenidos creativos o incluso ayuda para codificar. Estos modelos se centran en mejorar la productividad y la creatividad personales.

Personalización

Los LLM de consumo suelen dar prioridad a la personalización, aprendiendo de las interacciones de los usuarios para ofrecer recomendaciones, contenidos y respuestas a medida.

Asistente personal

Estos LLM pueden ayudar a responder preguntas sobre asistencia sanitaria, dar recomendaciones, redactar correos electrónicos o documentos, concertar citas con médicos y ayudar con diversas tareas de productividad individual.

Accesibilidad

Estos modelos suelen implementarse con interfaces fáciles de usar, accesibles a un amplio abanico de usuarios, y a menudo están disponibles en dispositivos móviles y ordenadores personales.

Maestrías en Derecho Empresarial e IA Generativa

Las empresas y organizaciones diseñan sus LLM empresariales y de IA generativa, tanto para uso de empleados como de clientes, con el fin de automatizar tareas, interpretar datos y generar cosas como texto, imágenes y vídeo. Los LLM empresariales están diseñados para su uso en organizaciones y empresas, con las siguientes características:

Integración de datos

Los LLM empresariales están diseñados para integrarse desde el primer momento con las fuentes de datos de tu organización (por ejemplo, HCE u otras bases de datos clínicas, de reclamaciones, de farmacia o de elegibilidad). Utilizando todos estos datos del sector sanitario, puede proporcionarte perspectivas e informes. Los LLM permiten analizar grandes cantidades de datos empresariales. Por ejemplo, un LLM podría evaluar rápidamente los complejos y siempre cambiantes criterios de autorización previa que utilizan los pagadores y las compañías de seguros.

LLM empresariales específicos de determinados sectores

Desarrollados para beneficiar a un sector determinado, como la sanidad, los LLM específicos del sector pueden ayudar en tareas que van desde el diagnóstico de una enfermedad a la tramitación de reclamaciones o la toma de decisiones clínicas.

Colaboración

Estos LLM suelen incluir funciones para espacios de trabajo en equipo compartidos, colaboración/compartición de documentos y automatización del flujo de trabajo para aumentar la productividad de la organización .

Gestión del conocimiento

Los LLM empresariales pueden ayudar a las organizaciones a recopilar y compartir conocimientos creando bases de conocimientos, resumiendo datos y ofreciendo sugerencias contextuales.

Servicio y atención al cliente

Desde el comercio de materias primas hasta la compra de entradas para conciertos, los LLM pueden impulsar asistentes conversacionales de IA y chatbots para proporcionar asistencia al cliente y responder a sus consultas.

Garantías de servicio

Los LLM de nivel empresarial incluyen acuerdos de nivel de servicio y un servicio de atención al cliente dedicado, lo que los hace fiables para las operaciones empresariales.

En resumen, la diferencia clave entre las herramientas LLM de consumo y las de empresa es la siguiente: las LLM de consumo están orientadas principalmente a la comodidad personalizada y la productividad personal, mientras que las LLM de empresa se construyen para casos de uso específicos de la industria, con integración de datos personalizados y soporte de nivel empresarial para las operaciones.

Reducir la brecha

Esta distinción entre el consumidor y los LLM empresariales/la IA generativa es en realidad importante porque influye en el uso y en su audiencia. Es importante distinguir entre LLM empresariales y de consumo por varias razones:

  • Finalidad y objetivos

  • Entrenamiento de datos

  • Panorama normativo

  • Ética y parcialidad

Propósitos y objetivos

Los LLM empresariales están orientados a resolver un problema empresarial concreto o a mejorar los procesos empresariales. Van desde la automatización de las interacciones entre un miembro de un plan de salud y un empleado del servicio de atención al cliente hasta la creación de perspectivas a partir de datos que las empresas ya tienen.

Los LLM para consumidores están diseñados para uso individual y con fines educativos. Ofrecen servicios como la traducción de idiomas y la respuesta conversacional a preguntas. Y lo que es más importante, pueden adaptarse a las preferencias y necesidades individuales, proporcionando respuestas personalizadas basadas en las interacciones anteriores del usuario, sus intereses declarados o sus requisitos específicos.

Entrenamiento de datos

Los LLM empresariales se entrenan en conjuntos de datos específicos del dominio. De este modo, podemos "ajustar" el LLM a nuestro dominio empresarial, de modo que no sólo se dirija directamente al contenido, sino que también lo haga con conocimiento del contexto y la jerga empresariales.

Los LLM de consumo se entrenan con grandes corpus de propósito general (colecciones de texto y código) extraídos de diversos sitios web públicos. Éstos proporcionan una exposición generalista, pero corren el riesgo de ser sesgados y carecen de conocimientos especializados y/o experiencia en el dominio. Utilizando el marco de IA RAG, los datos se extienden a fuentes de datos externas, igual que con un LLM empresarial.

Panorama normativo

Los LLM empresariales se regulan conforme a normas específicas del sector (por ejemplo, el sector financiero) o normas que regulan los datos (por ejemplo, la protección de datos médicos).

Los LLM de consumidores están sujetos a las leyes y reglamentos de protección de los consumidores relativos a la privacidad de los datos y las prácticas éticas de AI. Por ejemplo, la HIPAA impone restricciones sobre el modo en que una persona o su representante utilizan la información sanitaria, de acuerdo con el derecho de acceso de la persona.

Ética y parcialidad

LLM empresariales: Es necesaria una cuidadosa administración y mitigación de los prejuicios para evitar un trato discriminatorio o injusto de clientes potenciales, empleados, etc.

LLMs de consumo: El sesgo en los LLM de consumo puede dar lugar a información errónea perjudicial, contenidos ofensivos o la perpetuación de las desigualdades sociales. Es esencial que el desarrollo de estas tecnologías sea responsable y que se aborden continuamente los sesgos no intencionados.

En conclusión, aunque los grandes modelos lingüísticos son utilizados tanto por las empresas como por los consumidores, sus diferentes fines, aunque potencialmente relacionados, y las necesidades asociadas de entrada, control (incluida la seguridad) y consideraciones éticas, deberían obligarnos a pensar en su desarrollo y uso de forma diferente, según esos diferentes fines y antecedentes.

Resumen

Los LLM pueden abrir un mundo de potencial que antes estaba restringido al dominio de la ciencia ficción. Al ahondar en el potencial de estos modelos lingüísticos avanzados, este capítulo explora una serie de promesas y aplicaciones futuristas (dos de las cuales -la Navaja Suiza Médica para consumidores y el Sherpa Médico para clínicos- están impulsadas por un LLM). Los modelos lingüísticos (LLM) -máquinas que pueden leer, escribir y manipular el lenguaje humano con notable fluidez y flexibilidad- inauguraron esta nueva era. Los LLM siguen evolucionando rápidamente y sus capacidades siguen mejorando. Los LLM prometen transformar la atención al paciente, la investigación y los conocimientos médicos en una amplia gama de sectores sanitarios.

Pero la mayor diferencia puede ser qué tipo de usuarios y casos de uso se prevén para una aplicación con LLM. Las aplicaciones LLM para consumidores (como la Navaja Suiza Médica) se centran en la comodidad del usuario final a la hora de tomar decisiones médicas informadas, desde la autogestión de eventos y el autodiagnóstico a pequeña escala, hasta las aplicaciones de promoción de la salud, autocuidado y atención sanitaria familiar. Las aplicaciones LLM para empresas (como Medical Sherpa) se dirigirán a los profesionales sanitarios y a las organizaciones que rellenan o buscan en la creciente literatura médica, a los médicos que toman decisiones diagnósticas y a los investigadores farmacéuticos que desarrollan medicamentos. Para las aplicaciones LLM de consumo, la comodidad y la facilidad de uso son la clave del atractivo. Para las aplicaciones LLM empresariales, cuestiones como la privacidad de los datos, la HIPAA y el cumplimiento de la normativa, y las funciones específicas del sector son los elefantes en la habitación.

Pero a medida que la sociedad se adentre en los LLM, sus soluciones y promesas darán forma a un mundo que se llenará de nuevas herramientas tanto para los consumidores de salud como para los profesionales médicos, y creará un futuro próximo diversificado por un mayor acceso a la asistencia sanitaria y al conocimiento médico.

1 C. M. Kornbluth, "La pequeña bolsa negra", en Lo mejor de C. M. Kornbluth, ed.: Frederik Pohl (Garden City, NY: Nelson Doubleday, 1976), 42-69. Frederik Pohl (Garden City, NY: Nelson Doubleday, 1976), 42-69.

2 Matt Marshall, "NY Hospital Exec: Multimodal LLM Assistants Will Create a 'Paradigm Shift' in Patient Care," VentureBeat, 6 de marzo de 2024, https://venturebeat.com/ai/ny-hospital-exec-multimodal-llm-assistants-will-create-a-paradigm-shift-in-patient-care.

3 Puede parecer que los LLM entienden el lenguaje humano, pero son modelos estadísticos sofisticados. Estos modelos reconocen patrones, traducen entre lenguas, predicen palabras probables y generan textos coherentes. Sin embargo, no comprenden realmente el significado del modo en que lo hacen los humanos. Véase "Riesgos de los grandes modelos lingüísticos (LLM)", IBM Technology, 14 de abril de 2023, vídeo de YouTube, 8:25, https://www.youtube.com/watch?v=r4kButlDLUc&t=278s.

4 "Experimentos ChatGPT: Autoregressive Large Language Models (AR-LLMs) and the Limits of Reasoning as Structured Summarization", The GDELT Project, 14 de febrero de 2023, https://blog.gdeltproject.org/chatgpt-experiments-autoregressive-large-language-models-ar-llms-and-the-limits-of-reasoning-as-structured-summarization.

5 Hoifung Poon y Jianfeng Gao, "Domain-Specific Language Model Pretraining for Biomedical Natural Language Processing", Microsoft Research Blog, 31 de agosto de 2020, https://www.microsoft.com/en-us/research/blog/domain-specific-language-model-pretraining-for-biomedical-natural-language-processing.

6 PubMed, consultado el 20 de junio de 2024, https://pubmed.ncbi.nlm.nih.gov.

7 Jinhyuk Lee, et al., "BioBERT: Un modelo de representación del lenguaje biomédico preentrenado para la minería de textos biomédicos", Bioinformatics 36, no. 4 (febrero de 2020): 1234-1240, https://academic.oup.com/bioinformatics/article/36/4/1234/5566506.

8 Iz Beltagy, Kyle Lo y Arman Cohan, "SciBERT: A Pretrained Language Model for Scientific Text", arXiv, 10 de septiembre de 2019, https://arxiv.org/abs/1903.10676.

9 Kexin Huang, Jaan Altosaar y Rajesh Ranganath, "ClinicalBERT: Modeling Clinical Notes and Predicting Hospital Readmission", Taller CHIL '20, 2-4 de abril de 2020, Toronto, ON, https://arxiv.org/pdf/1904.05342#:~:text=ClinicalBERT%20is%20an%20application%20of,task%20of%20hospital%20readmission%20prediction.

10 Alistair E. W. Johnson, et al., "MIMIC-III, una base de datos de cuidados críticos de libre acceso", Scientific Data 3, nº 160035 (2016), https://www.nature.com/articles/sdata201635.

11 "Med-PaLM", Google Research, consultado el 20 de junio de 2024, https://sites.research.google/med-palm.

12 Karan Singhal, et al., "Towards Expert-Level Medical Question Answering with Large Language Models", arXiv, 16 de mayo de 2023, https://arxiv.org/pdf/2305.09617.

13 Amanda Jane Modaragamage, "Top Wearable Medical Devices Used in Healthcare", Healthnews, 16 de enero de 2024, https://healthnews.com/family-health/healthy-living/wearable-medical-devices-used-in-healthcare.

14 David M. Levine y Ateev Mehrotra, "Assessment of Diagnosis and Triage in Validated Case Vignettes Among Nonphysicians Before and After Internet Search," JAMA Network Open 4, no. 3 (2021): e213287, https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2777835.

15 "¿Qué es lo próximo que le espera a la IA conversacional en las aplicaciones empresariales?" Koru, 11 de junio de 2024, https://www.koruux.com/blog/conversational-ai-in-enterprise-apps.

16 Margaret E. Kruk y otros, "Mortality Due to Low-Quality Health Systems in the Universal Health Coverage Era: A Systematic Analysis of Amenable Deaths in 137 Countries", Lancet 392, nº 10160 (17 de noviembre de 2018): 2203-2212, https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6238021.

17 "UpToDate: Trusted, Evidence-Based Solutions for Modern Healthcare", Wolters Kluwer, consultado el 20 de junio de 2024, https://www.wolterskluwer.com/en/solutions/uptodate.

18 Michael Morrison, "¿Prestan mejor atención a los pacientes los hospitales que investigan?" Hospital General de Massachusetts, comunicado de prensa, 28 de febrero de 2022, https://www.massgeneral.org/news/press-release/do-research-hospitals-provide-better-care-for-patients.

19 Kerrie Holley y Siupo Becker, AI-First Healthcare: AI Applications in the Business and Clinical Management of Health (O'Reilly Media, 2021), https://learning.oreilly.com/library/view/ai-first-healthcare/9781492063148.

20 "El futuro de la IA, según el ex director general de Google Eric Schmidt", Noema Magazine, 21 de mayo de 2024, vídeo de YouTube, 20:06, https://www.youtube.com/watch?v=DgpYiysQjeI.

21 "What's Next for AI Agentic Workflows ft. Andrew Ng de AI Fund", Sequoia Capital, 26 de marzo de 2024, vídeo de YouTube, 13:39, https://www.youtube.com/watch?v=sal78ACtGTc&t=524s.

22 Margaret Mitchell, "Ethical AI Isn't to Blame for Google's Gemini Debacle", Time, 29 de febrero de 2024, https://time.com/6836153/ethical-ai-google-gemini-debacle.

Get LLMs e IA Generativa para la Sanidad now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.