ChatGPT: El Intérprete de Pruebas de Laboratorio Extraordinario – ¡Descubriendo sus Superpoderes, Evaluando su Seguridad!

Dr. Siddarth Agrawal
22.04.2024
ChatGPT: El Intérprete de Pruebas de Laboratorio Extraordinario – ¡Descubriendo sus Superpoderes, Evaluando su Seguridad!

Cuando la curiosidad llama y las personas se encuentran necesitadas de respuestas, emprenden una búsqueda de conocimiento. En el pasado, el fiel compañero en su búsqueda era Google, pero ahora ha surgido un nuevo contendiente en el escenario: ChatGPT.


La interpretación de pruebas de laboratorio es un campo de batalla donde innumerables personas buscan comprensión, y solo en la Unión Europea, Cada mes, se realizan más de 80 millones de consultas sobre el significado de los resultados de las pruebas de laboratorio solo en la Unión Europea.. Aunque no podemos precisar el número exacto dentro del ámbito de ChatGPT, solo podemos imaginar la gran cantidad de consultas. Ahora, surge la pregunta crucial: ¿Está ChatGPT a la altura de la tarea? ¿Puede ser la solución heroica que hemos estado buscando? Descubrámoslo.

Los sistemas de toma de decisiones clínicas pueden ser evaluados en función de su corrección, utilidad y seguridad.

En mi búsqueda por evaluar las capacidades de ChatGPT, descubrí que se considera a sí mismo como.Con confianza explica desviaciones de los valores de referencia, pero lamentablemente, se queda corto cuando se enfrenta a casos complejos. Por ejemplo, ChatGPT podría indicar que“un valor bajo de Hct sugiere una menor proporción de glóbulos rojos en el volumen sanguíneo”o que “los niveles bajos de glucosa pueden indicar hipoglucemia.” Si bien generalmente proporciona información precisa al interpretar los resultados de las pruebas de laboratorio, no cumple con proporcionar las ideas prácticas que los pacientes esperan.

Parece que las habilidades de interpretación de ChatGPT están estancadas en el territorio superficial, ofreciendo respuestas genéricas como una adivina cansada.Para una interpretación precisa se requiere la capacidad de manejar múltiples dependencias de resultados y reconocer patrones elusivos, algo con lo que ChatGPT lucha en este momento. Mi extenso análisis de la destreza de ChatGPT en la interpretación de pruebas de laboratorio me llevó por un fascinante laberinto, solo para tropezar con un artículo de investigación de Janne Cadamuro y otros confirmando mis hallazgos. Siempre es reconfortante saber que incluso las mentes más brillantes comparten las mismas observaciones.

Ahora, hablemos de seguridad.

Interpretar los resultados de las pruebas de laboratorio sin llevar a cabo una entrevista médica adecuada que implique comprender al paciente no es factible. Como profesor académico en la Universidad Médica de Wroclaw, enfatizo la importancia de realizar entrevistas médicas exhaustivas a mis estudiantes de medicina, ya que contribuyen al 80% o más de los diagnósticos.

Las entrevistas médicas van más allá de la información básica como la edad, el sexo, las enfermedades existentes y los medicamentos. Deben abarcar detalles relevantes sobre los síntomas, factores de riesgo y cualquier evidencia que vincule las desviaciones de los resultados con posibles diagnósticos. Los profesionales de la salud saben que los pacientes a menudo no comparten antecedentes médicos pertinentes, lo que requiere que los médicos hagan las preguntas correctas para llegar a un diagnóstico diferencial y brindar orientación precisa. Esto es especialmente crítico en la interpretación de pruebas de laboratorio y puede salvar vidas en última instancia.

Considera el reciente informe de caso de un paciente que utilizó LabTest Checker en Diagnostyka, el proveedor de pruebas de laboratorio más grande de Europa Central y del Este, para interpretar sus resultados. Este hombre de 76 años se sometió a un panel de sangre completo, compartiendo su historial médico básico, mencionando arritmia y la suplementación de magnesio y potasio. No se reportaron otras quejas. Sin embargo, durante una entrevista exhaustiva, se reveló que actualmente experimentaba palpitaciones cardíacas persistentes. Dado su nivel ligeramente reducido de TSH(0.329 µIU/ml)y la presencia de este síntoma, LabTest Checker determinó que se necesitaba atención médica inmediata debido a la posible presencia de hipertiroidismo que podría llevar a una arritmia potencialmente mortal (fibrilación auricular).El retraso en la evaluación médica podría potencialmente conducir a un fallo circulatorio o un accidente cerebrovascular isquémico, ambos potencialmente mortales. Ahora, imagina si el paciente se hubiera basado únicamente en el análisis de ChatGPT sin someterse a una entrevista detallada. No es difícil imaginar un escenario peligroso donde se pierda una intervención médica crucial porque ChatGPT indica erróneamente que «todo parece estar bien».

Aunque ChatGPT generalmente proporciona respuestas precisas, su falta de entrevistas en profundidad puede ser peligrosa. Los modelos de lenguaje grandes (LLMs) como ChatGPT son susceptibles a.hallucinations, biases, y generar información plausible pero engañosa, lo que los hace poco confiables para interpretar pruebas de laboratorio.

Aunque otros modelos como BioGPT y Med-PaLM, entrenados con datos médicos, podrían ofrecer una utilidad comparable a la consulta con un médico, su uso generalizado en el cuidado de la salud enfrenta desafíos significativos.

El cumplimiento se convierte en un obstáculo importante ya que estos modelos no cumplen con las leyes de protección de datos como el GDPR y HIPAA, lo que plantea riesgos de ciberseguridad. Además, la falta de transparencia en su desarrollo, entrenamiento y validación hace imposible una eficaz garantía de calidad. Confiar en estos modelos para fines médicos podría ser ilegal en muchas jurisdicciones y violar estándares profesionales, códigos de conducta clínicos, regulaciones de dispositivos médicos y leyes de protección de datos de pacientes. Es un campo de minas legal potencial esperando ocurrir.

Además, modelos como ChatGPT no están protegidos bajo leyes como la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996, ya que no revelan las fuentes de la información de terceros utilizada durante el entrenamiento. Son sistemas autocontenidos propensos al sesgo y capaces de generar información plausible pero engañosa. En otras palabras, destacan en ser creativos en lugar de proporcionar resultados factuales.

Para lograr el cumplimiento, ChatGPT requeriría una verificación y validación minuciosa de cada componente, incluida la base de conocimientos médicos y el propio LLM. Sin embargo, esto plantea desafíos significativos. Curar y validar una base de conocimientos médicos integral es difícil debido a la información desactualizada, sesgada y específica de ubicación. La falta de transparencia en las metodologías utilizadas por los desarrolladores limita el acceso a LLMs como ChatGPT, que cae en la categoría de Software de Procedencia Desconocida (SOUP), lo que introduce riesgos e incertidumbres.

Más importante aún, demostrar la seguridad y efectividad de ChatGPT requeriría investigaciones clínicas rigurosas y el cumplimiento de estándares regulatorios. Realizar un estudio clínico exhaustivo comparando el rendimiento del modelo con el de los médicos sería extenso y completo, siguiendo criterios estrictos y aprobación ética. Estamos hablando de una empresa importante.

Desde un punto de vista técnico, lograr todo esto no es imposible, pero requerirá una inversión significativa de tiempo y experiencia. Se necesitará recopilar una amplia evidencia clínica, revisiones de literatura, estudios de viabilidad e informes conformes a la regulación para crear un Informe de Evaluación Clínica (CER). Sin embargo, obtener la aprobación regulatoria dependerá de que la investigación arroje resultados positivos. Así que, crucemos los dedos para que todo salga según lo planeado.

nt-weight: 400;»>Pongamos las cosas en perspectiva al recordar el intento de IBM Watson de revolucionar la atención médica hace una década. A pesar de su tecnología innovadora, talento destacado y recursos abundantes, los desafíos de implementar la inteligencia artificial en la atención médica resultaron ser más formidables y prolongados de lo anticipado. Incluso con el surgimiento inicial del aprendizaje profundo en 2012, tomó casi cinco años obtener la aprobación regulatoria para un dispositivo impulsado por inteligencia artificial con un alcance muy limitado en mamografía mamaria.

En pocas palabras, ¡La aparición de LLMs está lista para revolucionar diversas industrias, y la atención médica es una de ellas! ¡Pero espera un momento! No podemos simplemente liberar estos modelos sin garantizar su seguridad. En este momento, demostrar el cumplimiento para LLMs médicos puede parecer como intentar meter un cuadrado en un círculo dentro de las regulaciones existentes. Sin embargo, no perdamos la esperanza. El futuro ofrece el potencial de encontrar una manera de hacerlo funcionar y garantizar el uso seguro y efectivo de estas herramientas poderosas. ¡Así que mantente atento!