Technology Argentina , Santa Fe, Thursday, May 28 of 2020, 10:54

Algunos sistemas de diagnóstico asistido por ordenador a partir de imágenes médicas presentan sesgos de género

Investigadores argentinos advierten que la comunidad encargada de construir estos modelos y bases de datos no siempre toma en cuenta las dimensiones sexo-género en sus análisis, lo que tiene implicaciones directas en la salud

DICYT - La Inteligencia Artificial (IA) se emplea cada vez más en el diagnóstico de enfermedades a través de imágenes médicas. Sin embargo, los posibles sesgos de género y raciales vinculados a estos sistemas suponen una preocupación importante. Un estudio encabezado por el Instituto de Investigación en Señales, Sistemas e Inteligencia Artificial (Universidad Nacional del Litoral-Consejo Nacional de Investigaciones Científicas y Técnicas CONICET) ha encontrado evidencia de un desequilibrio de género en los conjuntos de datos de imágenes médicas que se utilizan para capacitar a los clasificadores para el diagnóstico asistido por ordenador.


Tal y como recuerda el coordinador del trabajo, Enzo Ferrante, en palabras recogidas por DiCYT, hace algún tiempo comenzaron a encontrarse con muchos trabajos que advertían “sobre distintos tipos de sesgo en modelos predictivos de inteligencia artificial, mayormente adquiridos a partir de los datos que habían sido usados para su entrenamiento”.

 

Al mismo tiempo, en 2019 se celebró en Santa Fe el Congreso Internacional de Género en Ciencia, Tecnología e Innovación, en el que pudieron conocer los trabajos de Londa Schiebinger sobre gendered innovations, “donde se plantea la necesidad de integrar la dimensiones sexo-género en el diseño experimental y el análisis de los desarrollos científico-tecnológicos”.

 

Esto les llevó a plantearse cuáles serían las implicaciones de estos sesgos en el campo de estudio de su grupo, el desarrollo de nuevos métodos computacionales para el análisis de imágenes biomédicas (como imágenes de rayos X, tomografía computada o resonancia magnética).


De este modo, analizaron el comportamiento de tres modelos de aprendizaje profundo (deep learning) para el diagnóstico mediante radiografías de tórax, utilizando las imágenes de dos grandes conjuntos de datos disponibles públicamente. Estos conjuntos, mantenidos por los Institutos Nacionales de Salud de Estados Unidos y la Universidad de Stanford, incluían el diagnóstico de la enfermedad e información de género de 30.805 y 65.240 personas, respectivamente.


La diversidad importa

Uno de los hallazgos más importantes del trabajo, avanza Ferrante, es que si bien los modelos de asistencia al diagnóstico en imágenes médicas basados en IA tienen un increíble potencial, “hay que ser cuidadosos al momento de diseñarlos y poner especial atención en que el conjunto de datos de entrenamiento sea lo suficientemente diverso para representar la población sobre la cual será utilizado”. “La diversidad importa, y mucho”, recalca.

 

Los investigadores encontraron que la comunidad encargada de construir estos modelos y bases de datos no siempre toma en cuenta las dimensiones sexo-género en sus análisis. “De hecho, muchas de las bases de datos disponibles no cuentan siquiera con esta información desagregada por paciente, lo que directamente imposibilita una validación de este tipo”, subraya el científico.

 

Diseño de algoritmos robustos

 

El estudio tiene implicaciones a varios niveles. Primero, apunta Ferrante, “las personas que diseñan las bases de datos que luego serán utilizadas para entrenar los sistemas de diagnóstico basados en IA, deben contar con la información demográfica que nos permita luego comprobar que el rendimiento de nuestros modelos sea independiente del género, edad, etnia, etc., es decir, que su desempeño no disminuya en grupos minoritarios”.

 

Segundo, tiene implicaciones en el campo de las ciencias de la computación. “Aquí se abren problemas interesantes en cuanto al diseño de algoritmos que sean robustos al desbalance en los datos de entrenamiento, lo que resulta especialmente útil en los casos donde se dificulta conseguir bases de datos diversas y balanceadas”.

 

Finalmente, es de interés para quienes evalúan y aprueban este tipo de tecnologías para su uso en escenarios clínicos reales. “Es importante considerar que sus procesos de evaluación consideren análisis desagregados de este tipo, para garantizar que los modelos sean justos y no presenten sesgos que perjudiquen a los grupos minoritarios”, concluye.
 

 

 

Referencia
"Gender imbalance in medical imaging datasets produces biased classifiers for computeraided diagnosis," by Agostina J. Larrazaba, Nicolás Nieto, Victoria Peterson, Diego H. Milone, and Enzo Ferrante.
https://www.pnas.org/cgi/doi/10.1073/pnas.1919012117