La evaluación de tecnologías en salud basadas en inteligencia artificial ¿debería ser diferente?

Autores/as

DOI:

https://doi.org/10.21615/cesspe.6572

Palabras clave:

evaluación de la tecnología biomédica, inteligencia artificial, bioética

Resumen

Al determinar su idoneidad para usos en salud, ¿debería evaluarse la tecnología sanitaria basada en inteligencia artificial (IA) de forma diferente a otras tecnologías? Si bien la evaluación de los desarrollos tecnológicos está fuertemente orientada al proceso (diseño) y al impacto en el mercado, la evaluación de las tecnologías en salud está fuertemente orientada a las consecuencias, tanto positivas como negativas, sobre la salud de los individuos y la salud de la población. La evaluación tecnológica en salud debe seguir evolucionando para adaptarse a los retos que plantea la IA en salud, y así dar respuesta a las crecientes expectativas, a los nuevos retos sociales, legales, éticos y a las nuevas restricciones evaluativas que diferentes autores han señalado como retos en la implementación de la IA. Requerimos nuevos consensos profesionales y sociales en torno a este tema que ya se está implementando y desarrollando (incluso por sí mismo) a una velocidad vertiginosa. Este trabajo presenta algunas reflexiones personales sobre el tema a partir de los principios fundamentales de la evaluación y consideraciones bioéticas.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Diego Fernando Rojas-Gualdron, Universidad CES

Doctor en Epidemiología y Bioestadística. Profesor asociado, Facultad de Medicina, Universidad CES. Medellín, Colombia. 

Referencias bibliográficas

Wouters, RHP, van der Graaf, R, Voest, EE, Bredenoord, AL. Learning health care systems: Highly needed but challenging. Learn Health Sys. 2020; 4:e10211. https://doi.org/10.1002/lrh2.10211

Bélisle-Pipon JC, Couture V, Roy MC, Ganache I, Goetghebeur M, Cohen IG. What Makes Artificial Intelligence Exceptional in Health Technology Assessment? Front Artif Intell. 2021; 4:736697. https://doi.org/10.3389/frai.2021.736697

Wang, Y., Qiu, T., Zhou, J. et al. Which Criteria are Considered and How are They Evaluated in Health Technology Assessments? A Review of Methodological Guidelines Used in Western and Asian Countries. Appl Health Econ Health Policy. 2021; 19:281–304. https://doi.org/10.1007/s40258-020-00634-0

Saini P, Loke Y K, Gamble C, Altman D G, Williamson P R, Kirkham J J. et al. Selective reporting bias of harm outcomes within studies: findings from a cohort of systematic reviews BMJ 2014; 349: g6501. https://doi.org/10.1136/bmj.g6501

Hofmann B. Biases and imperatives in handling medical technology. Health Policy Technol. 2019;8(4):377-85. https://doi.org/10.1016/j.hlpt.2019.10.005

Matheny, M., S. Thadaney Israni, M. Ahmed, and D. Whicher, Editors. (2019). Artificial Intelligence in Health Care: The Hope, the Hype, the Promise, the Peril. NAM Special Publication. Washington, DC: National Academy of Medicine. [Internet]. Disponible en: https://nam.edu/wp-content/uploads/2019/12/AI-in-Health-Care-PREPUB-FINAL.pdf

Alami H, Lehoux P, Auclair Y, et al. Artificial Intelligence and Health Technology Assessment: Anticipating a New Level of Complexity. J Med Internet Res. 2020;22(7):e17707. https://doi.org/10.2196/17707

Single, A., Cabrera, A., Fifer, S. et al. Patient advocacy group involvement in health technology assessments: an observational study. Res Involv Engagem. 2021;7(83). https://doi.org/10.1186/s40900-021-00327-5

Descargas

Publicado

2022-06-23

Cómo citar

1.
Rojas-Gualdron DF. La evaluación de tecnologías en salud basadas en inteligencia artificial ¿debería ser diferente?. CES SPE [Internet]. 23 de junio de 2022 [citado 24 de septiembre de 2023];1(1):53-8. Disponible en: https://revistas.ces.edu.co/index.php/spe/article/view/6572

Número

Sección

Artículos de reflexión no derivado de investigación
QR Code
Estadísticas de artículo
Vistas de resúmenes
Vistas de PDF
Descargas de PDF
Vistas de HTML
Otras vistas
Crossref Cited-by logo