Inteligencia Artificial y medicina: la necesidad de modelos interpretables

Autores/as

  • Sara Lumbreras Universidad Pontificia Comillas

DOI:

https://doi.org/10.37467/gka-revtechno.v9.2814

Palabras clave:

Inteligencia Artificial, Ciencias de la salud, Sistemas de Diagnóstico, Modelos Predictivos, Caja negra, IA Interpretable, Covid-19

Resumen

La pandemia ha proporcionado ejemplos claros del potencial de la IA para el sector de la salud, así como algunos de sus problemas, en buena parte derivados del uso de modelos de caja negra. En algunos casos, no existen alternativas razonables a los modelos de caja negra, como en tratamiento de imagen y voz. Sin embargo, en muchas otras situaciones resultaría más provechoso intentar centrar los desarrollos en la línea de la IA interpretable, que podrían ser aprovechados de manera directa para la confirmación de conocimiento o para la generación de hipótesis nuevas que puedan comprobarse con experimentos posteriores.

Citas

Ancochea, J., Izquierdo, J. L., Savana COVID-19 Research Group, & Soriano, J. B. (2020). Evidence of gender differences in the diagnosis and management of coronavirus disease 2019 patients: An analysis of electronic health records using natural language processing and machine learning. Journal of Women's Health,

Ardakani, A. A., Kanafi, A. R., Acharya, U. R., Khadem, N., & Mohammadi, A. (2020). Application of deep learning technique to manage COVID-19 in routine clinical practice using CT images: Results of 10 convolutional neural networks. Computers in Biology and Medicine, 103795.

Beck, B. R., Shin, B., Choi, Y., Park, S., & Kang, K. (2020). Predicting commercially available antiviral drugs that may act on the novel coronavirus (SARS-CoV-2) through a drug-target interaction deep learning model. Computational and Structural Biotechnology Journal,

Chalmers, D. J. (2006). Strong and weak emergence. The Re-Emergence of Emergence, , 244-256.

de Montalvo Jääskeläinen, F. (2018). ¿ Puede la máquina sustituir al hombre?: Una reflexión jurídica sobre el ojo clínico y la responsabilidad en tiempos del big data. Razón y Fe: Revista Hispanoamericana De Cultura, 278(1436), 323-334.

Graziani, D., Soriano, J. B., Rio-Bermudez, D., Morena, D., Díaz, T., Castillo, M., et al. (2020). Characteristics and prognosis of COVID-19 in patients with COPD. Journal of Clinical Medicine, 9(10), 3259.

Izquierdo, J. L., Ancochea, J., Soriano, J. B., & Savana COVID-19 Research Group. (2020). Clinical characteristics and prognostic factors for intensive care unit admission of patients with COVID-19: Retrospective study using machine learning and natural language processing. Journal of Medical Internet Research, 22(10), e21801.

Lalmuanawma, S., Hussain, J., & Chhakchhuak, L. (2020). Applications of machine learning and artificial intelligence for covid-19 (SARS-CoV-2) pandemic: A review. Chaos, Solitons & Fractals, , 110059.

Mitchell, M. (2009). Complexity: A guided tour Oxford University Press.

Molnar, C. (2020). Interpretable machine learning Lulu. com.

Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, 1(5), 206-215.

Zietz, M., & Tatonetti, N. P. (2020). Testing the association between blood type and COVID-19 infection, intubation, and death. MedRxiv : The Preprint Server for Health Sciences.

Descargas

Publicado

2021-01-18

Cómo citar

Lumbreras , S. (2021). Inteligencia Artificial y medicina: la necesidad de modelos interpretables. TECHNO REVIEW. International Technology, Science and Society Review Revista Internacional De Tecnología, Ciencia Y Sociedad, 9(2), 97–102. https://doi.org/10.37467/gka-revtechno.v9.2814

Número

Sección

Artículos de investigación