Parlamento de Andaluca

Investigadores de la US estudian los efectos de la Inteligencia Artificial en la Medicina y la Salud de las Personas

Proponen la primera clasificación científica de las distintas tecnologías, usos y aplicaciones de la Inteligencia Artificial (IA) en el ámbito de la Medicina y la Salud, desde el punto de vista de su implicación social y su alcance ético.

La presentación de este estudio ha tenido lugar en el marco de la II HUMAINT Winter School on Fairness, Accountability and Transparency in Artificial Intelligence, celebrada en Sevilla.

Redacción. Un equipo de investigadores vinculados a la Universidad de Sevilla y el Joint Research Centre (JRC) de la Comisión Europea acaba de presentar un estudio pionero en el mundo en el que proponen la primera clasificación científica de las distintas tecnologías, usos y aplicaciones de la Inteligencia Artificial (IA) en el ámbito de la Medicina y la Salud, desde el punto de vista de su implicación social y su alcance ético. La presentación de este estudio ha tenido lugar en el marco de la II HUMAINT Winter School on Fairness, Accountability and Transparency in Artificial Intelligence, celebrada en Sevilla.

La novedad del estudio radica en la visión global que aporta en relación a los aspectos y sociales de la IA aplicada en Medicina y Salud. Hasta ahora sólo existían algunas clasificaciones parciales desde el punto de vista tecnológico y de funcionamiento de los algoritmos que rigen los sistemas.

En la actualidad quedan pocas actividades humanas que sean completamente ajenas a las tecnologías basadas en la IA. En el ámbito de la Medicina y la Salud, la implementación de éstas es enorme y su crecimiento vertiginoso, con resultados potencialmente muy poderosos, que pueden afectar mucho al ser humano y a la sociedad en su conjunto, tanto de manera positiva (básicamente, por una mayor eficiencia) como negativamente (limitando el libre albedrío, por ejemplo, o abriendo la posibilidad de que sistemas autónomos adopten decisiones vitales para las personas).




El estudio se ha difundido de manera inicial tanto en inglés, en una prestigiosa plataforma preprint, como en su traducción en español y puede consultarse en los siguientes enlaces: Artículo original en inglés  y  la traducción en español.

El trabajo toma como punto de partida el informe técnico «Social Impact of Artificial Intelligence (AI) in Medicine and Health: An overwiew of the state-of-the-art and current trends from a European perspective» («Impacto social de la Inteligencia Artificial (IA) en Medicina y Salud: Una visión general de las últimas investigaciones y tendencias actuales desde una perspectiva europea»), un estudio realizado en 2019 por los profesores Emilio Gómez González, de la Escuela Técnica Superior de Ingeniería de la Universidad de Sevilla y Emilia Gómez Gutiérrez, del Joint Research Center, en el marco del proyecto de investigación HUMAINT, con sede en el Centro de Estudios Avanzados del JRC de la Comisión Europea. Este proyecto tiene como objetivo general el estudio del impacto de los sistemas de IA en las personas y los aspectos éticos y sociales relacionados.

Los últimos avances en sistemas de IA aplicados a la Medicina y la Salud presentan oportunidades extraordinarias en áreas de tan profundo interés social como la oncología, la genética y las neurociencias, junto con algunos inconvenientes no menos extraordinarios y numerosas interrogantes que exigen un debate sereno y riguroso sobre su implementación, antes de que los efectos no deseados sean irreversibles, según defienden los autores del estudio.

Rápido desarrollo
La IA aplicada a la Medicina y la Salud abarca un campo muy amplio, que va desde la existencia de software para interpretación de imágenes médicas hasta su integración en prácticamente todas las áreas clínicas y administrativas. La radiología y diferentes ramas de la cirugía que utilizaban dispositivos de realidad aumentada y robots quirúrgicos han estado al frente de esta transformación. Pero en la actualidad, la IA alcanza, de una manera u otra, a todas las especialidades.

En la clasificación propuesta en el estudio, los investigadores establecen un continuo desde las aplicaciones «positivas» de la IA en el campo de la Medicina y la Salud (software para soporte de decisiones que mejoran la eficiencia del diagnóstico, por ejemplo), a las «negativas» (la posibilidad de generar armas biológicas contra el conjunto de la población o una parte de ella), pasando por las que denominan «controvertidas» (la posibilidad de que personas no suficientemente formadas decidan sobre su propia salud o la de otros, o el marketing a medida en cuestiones relacionadas con la salud).

El objetivo del informe en el que se basa el estudio no es establecer líneas rojas a la implementación de la IA en el ámbito de la Medicina y la Salud, sino someter el asunto a un debate científico, serio y riguroso que tenga en cuenta elementos que hasta ahora sólo muy parcialmente han sido considerados en la literatura existente.

Hay aspectos, como la privacidad, la responsabilidad legal o los efectos en el empleo que han sido o están siendo analizados en relación con la aplicación de la Inteligencia Artificial en otros ámbitos, como las redes sociales, el comercio electrónico, la automatización de procesos fabriles o los vehículos autónomos. Sin embargo, existen otros aspectos directamente afectados por el uso de estos sistemas en el ámbito de la Medicina y la Salud que, o no han sido abordados (la generación de nuevas formas de vida artificial, la decodificación de las señales cerebrales y la posibilidad de «leer» el pensamiento, la edición genética y la autoexperimentación, o la adopción de decisiones sobre la vida o la muerte de las personas por parte de sistemas autónomos), o no lo han sido suficientemente (la confianza del paciente en su médico o los cambios legislativos necesarios, por ejemplo, para garantizar la explicabilidad de unos tratamientos diseñados por sistemas autónomos en vez de por los facultativos humanos y los propios procedimientos de evaluación del rendimiento de dichos sistemas).

La clasificación presentada también incluye una nueva «Escala de Disponibilidad de la Tecnología» que permite conocer, de forma cualitativa y fácilmente comprensible, en qué medida los sistemas están disponibles, de acuerdo con la información publicada en los sectores científico, académico, industrial y en medios de comunicación. Es una escala de 10 niveles, que van desde considerado «no factible» a «disponible para el público general», similar pero complementaria a la «Escala de Madurez de las Tecnologías», de uso habitual en los ámbitos de I+D+i.

Interés internacional. De las Naciones Unidas a la reciente declaración de la OMS
Debates similares al propuesto por los autores del estudio se han realizado en el ámbito, por ejemplo, de la IA de uso militar, incluso en el seno de las Naciones Unidas en 2019: ¿Puede una «máquina» tomar la decisión final de mantener o terminar con una vida humana?

Por su parte, la Organización Mundial de la Salud (OMS) hizo pública el pasado 13 de enero una Declaración titulada «Los trece desafíos urgentes en Salud para la próxima década», entre los cuales se incluyen varios directamente señalados en el estudio presentado en Sevilla. En concreto, sobre el control de los aspectos éticos y sociales en el uso de las nuevas tecnologías, la confianza de la ciudadanía en los nuevos sistemas, la protección del público frente a posibles usos peligrosos, la equidad y la accesibilidad a los recursos médicos por parte de toda la población y la preparación de la sociedad frente a las epidemias. Según la OMS, sin un conocimiento profundo de los aspectos éticos y sociales, las tecnologías basadas en Inteligencia Artificial podrían «dañar a la población a la que intentan ayudar».

Para los investigadores responsables del informe, y también para la OMS, la IA puede traer consigo algunos efectos, cuando menos controvertidos, que la sociedad no está teniendo en cuenta actualmente. Las tecnologías capaces de «aprender» por sí solas avanzan a un ritmo trepidante, sin supervisión ni control. La mayor parte de los desarrollos presentan, junto a un evidente y sustancial potencial de mejoras, una vertiente de resultados profundamente perturbadores y éticamente cuestionables, incluso muy negativos.

Un claro ejemplo de esto, pero sin duda no el único, es la edición de genes humanos. La posibilidad de alterar y sustituir fragmentos determinados de la cadena genética es algo que ya se está haciendo en la agricultura y la ganadería para aumentar la productividad y reducir el impacto de las plagas y las enfermedades. Sin embargo, en 2018 la edición de genes humanos (y con ella las dudas éticas) llegó a los titulares de la prensa internacional, cuando nacieron en China las dos primeras «gemelas de ingeniería» en las que se descubrieron efectos indeseados no previstos. Por cierto, el científico responsable ha sido recientemente condenado a prisión en China.

La corrección de genes mutados para evitar enfermedades graves tiene una clara lectura positiva, pero en este punto se plantean también algunas interrogantes: ¿Funciona? ¿A qué coste? ¿Qué pasa si esas personas, llegadas a adultas, procrean? ¿Se puede llegar a diseñar a un «superhumano»? ¿Hay algún límite?

Ocurre algo similar con los embriones humano-animales. Se ha experimentado con ellos con el objetivo, supuestamente, de resolver la escasez crítica de órganos para trasplantes. En 2018 se dieron a conocer en EEUU los primeros pasos en un embrión humano-ovino, y en 2019 en Japón se autorizó este tipo de investigaciones, bajo ciertas restricciones. Si alguno de estos embriones llegara a convertirse en adulto, ¿serían humanos y lo serían total o parcialmente?

En este mismo mes de enero, se han divulgado los primeros resultados de generación de «robots biológicos» (biobots) a partir de células animales (en concreto, de ranas), mediante el uso de tecnologías de IA. Y el pasado mes de noviembre se generó una polémica internacional, al conocerse el Proyecto Ruiseñor de Google, que supuestamente está recopilando todos los datos médicos y relativos a la Salud de millones de norteamericanos, y que plantea diversos aspectos relacionados con la privacidad de dicha recopilación.

La ciudadanía también opina. Estudio reciente sobre la percepción de la investigación en Europa
La IA aplicada a la Medicina y la Salud no es una disciplina aislada, sino que pone en conjunción la Medicina, las Ciencias, la Ingeniería, e incluso disciplinas sociales como la Ética o la Filosofía. Su desarrollo puede afectar a conceptos básicos cubiertos por regulaciones internacionales, que van desde el Juramento Hipocrático a fundamentos recogidos en la Carta de Derechos Humanos, como los relativos a la libertad y el libre albedrío.

La Fundación BBVA acaba de publicar el Estudio Europeo de Valores, según el cual, los ciudadanos europeos confían en la ciencia y la tecnología, pero consideran que debe haber límites éticos a la investigación.

En este sentido, y en relación con las aplicaciones más controvertidas de la IA en el ámbito de la Medicina y la Salud, los autores del estudio proponen adoptar el modelo que se ha seguido en relación con otra área de investigación que también puede considerarse controvertida, como es la tecnología nuclear. Sus aplicaciones positivas son innegables (ahí está, por ejemplo, la radioterapia contra el cáncer), pero se ha alcanzado un consenso para restringir otros desarrollos negativos, como la generación de armas de destrucción masiva.

Así, en el caso de la IA aplicada a la Medicina y la Salud, los autores del estudio presentado en Sevilla plantean identificar los usos más controvertidos y limitar el acceso a estos recursos sólo a usuarios cualificados, siguiendo protocolos y procedimientos similares a los utilizados para controlar las fuentes nucleares y radiactivas, así como sus dispositivos y especificaciones de diseño.





Deje un comentario

Su dirección de correo no será publicada.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.