La evaluación de tecnologías en salud basadas en inteligencia artificial ¿debería ser diferente?

Autores/as

DOI:

https://doi.org/10.21615/cesspe.6572

Palabras clave:

evaluación de la tecnología biomédica, inteligencia artificial, bioética

Resumen

Al determinar su idoneidad para usos en salud, ¿debería evaluarse la tecnología sanitaria basada en inteligencia artificial (IA) de forma diferente a otras tecnologías? Si bien la evaluación de los desarrollos tecnológicos está fuertemente orientada al proceso (diseño) y al impacto en el mercado, la evaluación de las tecnologías en salud está fuertemente orientada a las consecuencias, tanto positivas como negativas, sobre la salud de los individuos y la salud de la población. La evaluación tecnológica en salud debe seguir evolucionando para adaptarse a los retos que plantea la IA en salud, y así dar respuesta a las crecientes expectativas, a los nuevos retos sociales, legales, éticos y a las nuevas restricciones evaluativas que diferentes autores han señalado como retos en la implementación de la IA. Requerimos nuevos consensos profesionales y sociales en torno a este tema que ya se está implementando y desarrollando (incluso por sí mismo) a una velocidad vertiginosa. Este trabajo presenta algunas reflexiones personales sobre el tema a partir de los principios fundamentales de la evaluación y consideraciones bioéticas.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Diego Fernando Rojas-Gualdron, Universidad CES

Doctor en Epidemiología y Bioestadística. Profesor asociado, Facultad de Medicina, Universidad CES. Medellín, Colombia. 

Referencias bibliográficas

Wouters, RHP, van der Graaf, R, Voest, EE, Bredenoord, AL. Learning health care systems: Highly needed but challenging. Learn Health Sys. 2020; 4:e10211. https://doi.org/10.1002/lrh2.10211

Bélisle-Pipon JC, Couture V, Roy MC, Ganache I, Goetghebeur M, Cohen IG. What Makes Artificial Intelligence Exceptional in Health Technology Assessment? Front Artif Intell. 2021; 4:736697. https://doi.org/10.3389/frai.2021.736697

Wang, Y., Qiu, T., Zhou, J. et al. Which Criteria are Considered and How are They Evaluated in Health Technology Assessments? A Review of Methodological Guidelines Used in Western and Asian Countries. Appl Health Econ Health Policy. 2021; 19:281–304. https://doi.org/10.1007/s40258-020-00634-0

Saini P, Loke Y K, Gamble C, Altman D G, Williamson P R, Kirkham J J. et al. Selective reporting bias of harm outcomes within studies: findings from a cohort of systematic reviews BMJ 2014; 349: g6501. https://doi.org/10.1136/bmj.g6501

Hofmann B. Biases and imperatives in handling medical technology. Health Policy Technol. 2019;8(4):377-85. https://doi.org/10.1016/j.hlpt.2019.10.005

Matheny, M., S. Thadaney Israni, M. Ahmed, and D. Whicher, Editors. (2019). Artificial Intelligence in Health Care: The Hope, the Hype, the Promise, the Peril. NAM Special Publication. Washington, DC: National Academy of Medicine. [Internet]. Disponible en: https://nam.edu/wp-content/uploads/2019/12/AI-in-Health-Care-PREPUB-FINAL.pdf

Alami H, Lehoux P, Auclair Y, et al. Artificial Intelligence and Health Technology Assessment: Anticipating a New Level of Complexity. J Med Internet Res. 2020;22(7):e17707. https://doi.org/10.2196/17707

Single, A., Cabrera, A., Fifer, S. et al. Patient advocacy group involvement in health technology assessments: an observational study. Res Involv Engagem. 2021;7(83). https://doi.org/10.1186/s40900-021-00327-5

Descargas

Publicado

2022-06-23

Cómo citar

1.
Rojas-Gualdron DF. La evaluación de tecnologías en salud basadas en inteligencia artificial ¿debería ser diferente?. CES SPE [Internet]. 23 de junio de 2022 [citado 25 de abril de 2024];1(1):53-8. Disponible en: https://revistas.ces.edu.co/index.php/spe/article/view/6572

Número

Sección

Artículos de reflexión no derivado de investigación
Estadísticas de artículo
Vistas de resúmenes
Vistas de PDF
Descargas de PDF
Vistas de HTML
Otras vistas

Algunos artículos similares: