Inteligencia Artificial y la lucha contra la COVID-19
Cuando el covid-19 golpeó Europa en marzo de 2020, los hospitales se vieron sumidos en una crisis de salud que todavía se entendía mal. Los médicos realmente no tenían ni idea de cómo tratar a estos pacientes. La comunidad de investigadores se apresuró a desarrollar metodologías y software que muchos creían que permitirían a los hospitales diagnosticar o clasificar a los pacientes más rápidamente, brindando el apoyo que tanto necesitan a los profesionales que luchan contra la enfermedad en primera línea.
Se crearon cientos de herramientas de inteligencia artificial y se han publicado muchos artículos durante los últimos dos años que describen nuevos modelos basados en el aprendizaje automático para tratar el COVID-19. Estos modelos de predicción se pueden dividir en tres categorías: modelos sobre la población general para predecir el riesgo de padecer COVID-19 o ser hospitalizado por COVID-19; modelos para mejorar el diagnóstico de COVID-19 en pacientes con sospecha de infección; y modelos para apoyar el pronóstico de pacientes con COVID-19. Todos los modelos informaron un rendimiento predictivo de moderado a excelente en la fase de investigación, pero aún no está claro si ofrecen una utilidad clínica potencial.
Dos artículos recientes examinaron muchos de estos modelos publicados. En el primero de ellos, publicado en el British Medical Journal, los autores intentaron evaluar la utilidad de los modelos de predicción para el diagnóstico de la COVID-19. Los autores examinaron más de 200 algoritmos para encontrar que ninguno de ellos era apto para uso clínico. Solo dos fueron señalados como suficientemente prometedores para futuras pruebas.
Un segundo estudio, realizado por investigadores de la Universidad de Cambridge y publicado en Nature Machine Intelligence, se centró en modelos de aprendizaje profundo (deep learning) para el diagnóstico de la COVID-19 y la evaluación del riesgo del paciente a partir de imágenes médicas, principalmente radiografías y tomografías computarizadas (TC) de tórax. Se identificaron 2212 estudios, de los cuales 415 se incluyeron después de un cribado inicial y, después de una selección siguiendo criterios de calidad, se incluyeron 62 estudios en una exhaustiva revisión que concluyó que ninguno de ellos era apto para uso clínico.
Ambos equipos encontraron que los investigadores repitieron los mismos errores básicos en la forma en que entrenaron o probaron sus herramientas. Muchos de los problemas que se descubrieron estaban relacionados con la mala calidad de los datos que los investigadores utilizaron para desarrollar sus herramientas. La información y datos sobre los pacientes con COVID-19, incluidas las imágenes médicas, se habían recopilado y compartido en medio de una pandemia mundial, a menudo por los mismos médicos que en aquellos momentos luchaban por tratar a los pacientes. Los investigadores querían ayudar rápidamente y estos eran los únicos conjuntos de datos públicos disponibles. Pero esto significó que muchas herramientas se crearon utilizando datos mal etiquetados o datos de fuentes desconocidas. Las suposiciones incorrectas sobre los datos a menudo provocaban que los modelos entrenados no funcionasen como se esperaba y que las estimaciones de rendimiento fueran excesivamente optimistas y no representativas de la población objetivo.
Algunas herramientas terminaron siendo probadas con los mismos datos en los que habían sido entrenadas, lo que las hacía parecer más precisas de lo que son. Muchos investigadores, sin saberlo, utilizaron un conjunto de datos que contenía escáneres de tórax de niños que no tenían COVID-19 como ejemplos de control de pacientes sanos. Pero como resultado, los modelos predictivos aprendieron a diferenciar a los niños de los adultos, y no a los pacientes de COVID-19. En otro escenario, muchas de aquellas imágenes se habían etiquetado de acuerdo a si los radiólogos que los crearon dijeron que parecían casos de COVID-19, introduciendo el sesgo de ese médico en particular en los datos. Hubiera sido mucho mejor etiquetar las imágenes a partir del resultado de una prueba de PCR en lugar de la opinión de un médico.
Obtener datos de calidad actualizados hubiera sido más fácil si los formatos utilizados en los distintos hospitales estuvieran estandarizados. El Modelo Común de Datos (CDM) de la Observational Medical Outcomes Partnership (OMOP), adoptado y distribuido por la red de investigación de Observational Health Data Sciences and Informatics (OHDSI), es un modelo de base de datos unificado para integrar fuentes datos reales (Real World Data), incluidas las Historias Clínicas Electrónicas, de acuerdo con el mismo estándar. OMOP CDM, ahora en su versión 6.0, tiene miles de millones de observaciones clínicas estandarizadas de más de 20 países, incluida España. Estos datos, analizados adecuadamente, tienen un enorme potencial para generar evidencia realmente relevante y, lo que es más importante, lo suficientemente práctica como para incorporarse en la práctica clínica.
Este enfoque estandarizado permitió que los centros integrados en el modelo OMOP CDM pudieran ejecutar el mismo código analítico de manera distribuida o federada, donde cada hospital ejecuta los análisis por separado internamente y devuelve un conjunto de datos de resultados sin compartir datos a nivel de paciente.
Un primer estudio usando este enfoque tuvo como objetivo describir las características de los pacientes hospitalizados con COVID-19. En particular, nos propusimos resumir la demografía, las afecciones médicas y el uso de medicamentos de los pacientes COVID-19. El segundo objetivo fue comparar las características de las personas hospitalizadas por COVID-19 con las de los pacientes hospitalizados por gripe en temporadas anteriores. Se incluyó en el estudio a un total de 34,128 personas hospitalizadas con COVID-19 en EE. UU., España y Corea del Sur.
Se estableció un segundo estudio para investigar el uso de fármacos adyuvantes y reutilizados en pacientes ingresados por COVID-19 en tres continentes (Asia, Europa y América del Norte). Los datos, debidamente anonimizados, de 303 264 pacientes de 11 bases de datos mostraron que durante la primera fase de la pandemia se utilizaron más de 3400 medicamentos diferentes en el tratamiento de pacientes con COVID-19. Entre los más populares en las primeras etapas de la pandemia se encontraba la hidroxicloroquina, que se promocionó en gran medida sin el respaldo de pruebas confiables para posteriormente descartarse a la luz de ensayos clínicos y otros estudios relacionados, incluido otro estudio de la OHDSI que mostró un riesgo peligroso en la combinación de hidroxicloroquina con otro tratamiento terapéutico COVID-19 utilizado en los primeros momentos como fue la azitromicina.
El éxito del enfoque de un modelo común de OHDSI y OMOP llevó a la creación de la Red Europea de Datos y Evidencia Sanitarios (EHDEN), una red de datos federada de la que forma parte IOMED. El objetivo es la estandarización a gran escala de las metodologías de investigación sobre datos del mundo real, armonizando más de 100 millones de registros sanitarios para 2024 para convertirse en el ecosistema de investigación observacional de referencia en Europa. El futuro de la medicina basada en la evidencia del mundo real requerirá del uso de modelos de datos comunes para agilizar el análisis de los registros médicos electrónicos (EHR) casi en tiempo real, así como de herramientas de código abierto para su análisis.
En 2020, estas herramientas se aprovecharon rápidamente en un enorme esfuerzo por proporcionar evidencia rápida y confiable para luchar contra COVID-19 y estamos seguros de que se convertirán en un elemento clave de la infraestructura europea de datos clínicos.
Aunque los avances son prometedores, los desafíos asociados no pueden subestimarse. Los algoritmos de inteligencia artificial deben ser lo suficientemente robustos para evitar el aprendizaje sesgado, lo que puede suceder fácilmente cuando los conjuntos de datos de entrenamiento son demasiado pequeños, demasiado sesgados o mal anotados. Esto requiere acuerdos internacionales interdisciplinares para el intercambio de datos, la estandarización, la protección y anonimización de los datos, la validación y el seguimiento continuo. La implementación de estas herramientas en la práctica clínica también requiere de profesionales capacitados en las tecnologías digitales y un acceso generalizado a las últimas tecnologías. Al mismo tiempo, los médicos y los pacientes deberán ser partícipes en el proceso de diseño y desarrollo, ya que, en última instancia, las herramientas solo tendrán éxito si se sienten cómodos usándolas. Estos son solo algunos ejemplos de los obstáculos a los que se enfrentan las tecnologías de inteligencia artificial, pero revelan una de las características comunes clave: la necesidad de un esfuerzo global.
Wynants L, Van Calster B, Collins G S, Riley R D, Heinze G, Schuit E et al. Prediction models for diagnosis and prognosis of covid-19: systematic review and critical appraisal BMJ 2020; 369 :m1328 doi:10.1136/bmj.m1328
Roberts, M., Driggs, D., Thorpe, M. et al. Common pitfalls and recommendations for using machine learning to detect and prognosticate for COVID-19 using chest radiographs and CT scans. Nat Mach Intell 3, 199–217 (2021). https://doi.org/10.1038/s42256-021-00307-0
Burn, E., You, S.C., Sena, A.G. et al. Deep phenotyping of 34,128 adult patients hospitalised with COVID-19 in an international network study. Nat Commun 11, 5009 (2020). https://doi.org/10.1038/s41467-020-18849-z
Prats-Uribe A, Sena A G, Lai L Y H, Ahmed W, Alghoul H, Alser O et al. Use of repurposed and adjuvant drugs in hospital patients with covid-19: multinational network cohort study BMJ 2021; 373 :n1038 doi:10.1136/bmj.n1038