La falta de datos diversos está perjudicando la inteligencia artificial del sector salud.

Si observa la financiación de 2020 en los EEUU para las nuevas empresas de inteligencia artificial en el sector de la salud, cada trimestre sigue subiendo el techo. En el tercer trimestre, la financiación alcanzó su nivel más alto en tres años. Sin embargo, a los expertos les preocupa que la falta de representación en los datos de formación pueda dar lugar a diagnósticos falsos y una atención deficiente al paciente. Estas preocupaciones también impiden que algunos productos de IA salgan al mercado.

Las personas tienen fe en el uso de modelos de aprendizaje automático en la atención médica porque, en el mejor de los casos, pueden ayudar a superar las limitaciones humanas para acelerar el descubrimiento de fármacos, los diagnósticos y otros avances médicos. El problema: un modelo de machine learning es tan bueno como los datos con los que se entrena. Y los problemas con esos datos, como el alcance limitado y los sesgos existentes, pueden agravarse fácilmente con el tiempo.

Por ejemplo: un modelo entrenado principalmente con datos médicos de un área predominantemente europeas podría tener problemas para diagnosticar a las mujeres africanas.
Tener en cuenta este tipo de discrepancias es clave, especialmente antes de que un producto de inteligencia artificial para el cuidado de la salud salga al mercado.

Pero existen obstáculos potenciales para resolver estos problemas. El sector de la salud es “conocido por tener datos aislados y también debe lidiar con las preocupaciones sobre la privacidad de los datos de los pacientes”, según Deepashri Varadharajan, analista principal de inteligencia artificial de CB Insights.

Una posible solución: el aprendizaje federado, un enfoque del machine learning más centrado en la privacidad, podría permitir a las empresas tener acceso de forma colaborativa a conjuntos de datos más representativos sin tener que compartir datos sin procesar. Como nota: en el primer semestre de 2020, los investigadores publicaron más de 1,000 artículos sobre aprendizaje federado, en comparación con solo 180 artículos en total en 2018.

“Ya estamos viendo … modelos de asociación en I + D de fármacos y diagnósticos habilitados por IA”, dice Varadharajan.

El marco regulatorio actual de la FDA (Administración de alimentos y drogas por sus siglas en inglés de los EEUU) no cubre los algoritmos de aprendizaje continuo o adaptativos. Hasta ahora, la FDA solamente ha aprobado algoritmos de AI / ML “bloqueados”, o aquellos que siempre brindan el mismo resultado en las mismas condiciones. Hace dieciocho meses, la FDA publicó una propuesta de marco regulatorio para el software basado en IA / ML utilizado con fines médicos, pero aún no se ha finalizado nada. Mirando hacia el futuro: las cosas llegaron a un punto crítico en una reunión reciente del comité asesor público de la FDA, cuando los oradores expresaron su preocupación por el sesgo del modelo, la falta de conjuntos de datos grandes y variados y las implicaciones de vida o muerte de esta tecnología.

“Es posible que los algoritmos de IA y ML no lo representen si los datos no lo incluyen”, dijo Terri Cornelison, directora médica de la FDA.