Capítulo 2. Asomarse a la caja negra de la IA
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
A medida que los grandes modelos lingüísticos (LLM) y las herramientas de IA generativa se filtran en las aplicaciones sanitarias, traen consigo sus elementos complejos y opacos: la inherente cualidad de "caja negra" que hace que el funcionamiento interno de estos sistemas parezca oscuro. Esto plantea preguntas naturales a los médicos y a los responsables sanitarios que se plantean utilizar los LLM. ¿Cómo desarrollan exactamente estos sistemas de IA sus competencias clínicas? ¿Qué ocurre entre bastidores durante su formación? ¿La naturaleza de caja negra de estas herramientas emergentes hace que las recomendaciones y los procesos de pensamiento de los LLM sean demasiado inescrutables para un uso médico o sanitario serio?
Enel Capítulo 2 se examina lo que hay dentro de los sistemas de IA que ocupan hoy los titulares. Discutimos cómo los transformadores, los mecanismos de autoatención, las redes neuronales y otros elementos técnicos ingieren conocimientos sanitarios y desarrollan capacidades de razonamiento. Aunque un recuento completo de las matemáticas que hay detrás de cada componente está más allá de las necesidades de un lector típico, ofrecemos una explicación accesible de cómo funcionan los LLM. Mirar dentro de la caja negra disipa las nociones de "magia", al tiempo que pone al alcance de la mano la adopción responsable ...
Get LLMs e IA Generativa para la Sanidad now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.