La edad y la raza influyen en la precisión de la lectura de mamografías (mastografías) asistidas por IA
Las mujeres negras y aquellas de edad avanzada tenían más probabilidades de obtener falsos positivos que las mujeres blancas y las más jóvenes cuando un programa de inteligencia artificial (IA) interpretaba sus mamografías, según un estudio (en inglés) publicado en la revista Radiology. Un resultado falso positivo significa que el programa de IA marcó una zona como sospechosa, pero resultó no ser cáncer.
Puntos destacados
Un programa de IA interpretó las mamografías de un grupo diverso de más de 4.800 mujeres después de que los médicos las leyeran y determinaran que las mujeres no tenían cáncer de mama.
El programa de IA tenía más probabilidades de dar falsos positivos en mamografías de mujeres negras que en mamografías de mujeres blancas. Las mujeres asiáticas tenían menos probabilidades de obtener resultados falsos positivos que las blancas.
En las mujeres de más edad (entre 71 y 80 años), era más probable obtener resultados falsos positivos que entre mujeres de entre 51 y 60 años. Las mujeres más jóvenes (de 41 a 50 años) tenían menos probabilidades de obtener resultados falsos positivos que las mujeres de 51 a 60 años.
En las mujeres con mamas extremadamente densas, las probabilidades de obtener resultados falsos positivos eran más altas que en las mujeres con mamas predominantemente adiposas.
Qué significan los resultados para ti
Cada vez más centros de mamografías utilizan programas de inteligencia artificial para asistir a los radiólogos en la lectura de las mamografías. En estos casos, la lectura de la IA es uno de los datos en los que se basa el radiólogo para interpretar una mamografía. A través de un estudio de 2023 se demostró que el uso de IA para leer mamografías detectó un 20 % más de cánceres que los radiólogos. El estudio actual pone de relieve los posibles inconvenientes de utilizar la IA para interpretar mamografías.
Los programas de mamografía asistida con IA se desarrollan a partir de grandes bases de datos de imágenes que muestran lo que es y lo que no es cáncer de mama. Como señaló el equipo de investigación que realizó este estudio, pocas bases de datos contienen información de un grupo diverso de personas, y la Administración de Alimentos y Medicamentos (FDA, sigla en inglés) de los EE. UU., que aprueba los programas de IA para su uso en la detección del cáncer en ese país, no exige que los desarrolladores utilicen conjuntos de datos diversos.
“Este estudio nos muestra que la IA todavía no es muy buena para diagnosticar el cáncer de mama y que los radiólogos siguen siendo cruciales para detectarlo”, explicó Meredith Broussard, periodista de datos, investigadora de IA y profesora adjunta del Instituto de Periodismo Arthur L. Carter de la Universidad de Nueva York. Broussard, que también ha recibido tratamiento para el cáncer de mama, es además directora de investigación de la Alianza para la Tecnología de Interés Público de la Universidad de Nueva York.
Acerca del estudio
El equipo de investigación seleccionó mamografías 3D de 4.855 mujeres que se sometieron a una prueba de detección en la Facultad de Medicina de la Universidad Duke entre enero de 2016 y diciembre de 2019. Ninguna mamografía mostró indicios de cáncer, y las mujeres no tenían antecedentes de cáncer de mama.
El equipo de investigación se aseguró de que las mamografías procedieran de un grupo diverso de mujeres: el 28 % eran asiáticas; el 27 %, blancas; el 26 %, negras, y el 19 %, hispanas. La mayoría de las mujeres tenía una densidad mamaria BI-RADS de categoría B (densidades fibroglandulares dispersas), pero el 9 % tenía una categoría D (mamas extremadamente densas).
Se utilizó el programa ProFound AI 3.0, aprobado por la FDA, para leer las mamografías. El programa le asigna a cada mamografía lo que se conoce como “puntuación de caso”, que va de cero a cien. La puntuación de caso es la probabilidad de que la mamografía muestre cáncer. Las mamografías con una puntuación de 50 o más suelen requerir pruebas por imágenes adicionales u otros estudios. Cuanto más se acerque la puntuación a 100, más seguro estará el programa de IA de que la mamografía muestra cáncer.
El programa de IA también calcula una puntuación de riesgo para cada mamografía que tiene en cuenta la densidad de las mamas y la edad de la mujer. La puntuación de riesgo es la probabilidad de que una mujer desarrolle cáncer de mama en el próximo año. Las mamografías con una puntuación de riesgo superior a 0,8 presentan el mayor riesgo de que la siguiente mamografía muestre cáncer.
Resultados detallados
El programa de IA clasificó 816 de las 4.855 mamografías (17 %) como sospechosas, lo que significa que tenían una puntuación de caso igual o superior a 50. El equipo las denominó “falsos positivos”.
En comparación con las mujeres blancas:
las mujeres negras tenían un 50 % más de probabilidades de obtener un falso positivo
las mujeres asiáticas tenían un 30 % menos de probabilidades de obtener un falso positivo
En comparación con las mujeres de 51 a 60 años:
las mujeres de 41 a 50 años tenían un 40 % menos de probabilidades de obtener un falso positivo
las mujeres de 71 a 80 años tenían un 90 % más de probabilidades de obtener un falso positivo
El programa de IA otorgó a 240 de las 4.855 mamografías (5 %) una puntuación de riesgo superior a 0,8. También fueron falsos positivos para el equipo.
Hubo diferencias en las puntuaciones de riesgo en función de la raza, el origen étnico, la edad y la densidad de las mamas:
Las mujeres negras tenían 1,5 veces más probabilidades de obtener un resultado falso positivo que las blancas.
Las mujeres de 61 a 70 años tenían 3,5 veces más probabilidades de obtener un resultado falso positivo que las mujeres de 51 a 60 años.
Las mujeres con mamas extremadamente densas tenían 2,8 veces más probabilidades de obtener un resultado falso positivo que las mujeres con mamas predominantemente adiposas.
“Si los radiólogos normalizan la adopción de las recomendaciones de la IA basándose en pacientes de raza blanca (el grupo demográfico más numeroso de Estados Unidos), se arriesgan a que las tasas de repetición de pruebas de pacientes de raza negra sean inadecuadamente más altas ―escribió el equipo de investigación―. Esto tiene el potencial de empeorar las disparidades en la atención médica y disminuir los beneficios de la asistencia de la IA. La FDA debe proporcionar orientaciones claras sobre las características demográficas de las muestras utilizadas para desarrollar algoritmos, y los proveedores deben ser transparentes sobre cómo se desarrollaron sus algoritmos. Se requiere un esfuerzo permanente para entrenar futuros algoritmos de IA en diversos conjuntos de datos para garantizar un rendimiento estándar en todas las poblaciones de pacientes”.
Más información
Si deseas obtener más información sobre cómo se interpretó tu mamografía, habla con el médico o con alguna persona del centro donde te realizaste la prueba.
Escucha el episodio del pódcast de Breastcancer.org en el que Broussard habla del sesgo en la IA orientada a la salud.
Sesgo en la IA para atención de salud
16 jul 2024Nguyen, D. et al. Patient Characteristics Impact Performance of AI Algorithm in Interpreting Negative Screening Digital Breast Tomosynthesis Studies. (Características de pacientes influyen en el rendimiento del algoritmo de IA en la interpretación de estudios de detección negativos de tomosíntesis digital de mama). Radiology 2024 311:2.
Actualizado el 27 de diciembre de 2024