Un conjunto de asociaciones de pacientes, sociedades médicas y organizaciones del ámbito hospitalario se han unido para pedir a las empresas que desarrollan la inteligencia artificial (IA) en salud que tomen precauciones.
Para ello, han solicitado un compromiso ético en el reciente simposio “Hackeando la sanidad: Inteligencia Artificial en Salud”.
El simposio fue organizado por la Asociación de Innovadores en eSalud (AIES), la red ITEMAS (dependiente del Instituto de Salud Carlos III) y el Instituto #SaludsinBulos.
El proyecto se enmarca en Hackathon Salud, un proceso de co-creación de soluciones digitales en salud impulsadas por profesionales sanitarios.
Implicaciones de la IA en salud
Lo cierto es que se prevé que la inteligencia artificial reduzca la carga de trabajo de los profesionales del ámbito sanitario notablemente. Es posible que la carga laboral disminuya un 20 % en el caso de los médicos y un 8 % en el de la enfermería.
Carmen Jódar, presidenta de AIES y responsable de estrategia digital en la Junta de Andalucía, considera que esta reducción de la carga laboral supondría un aumento del tiempo con el paciente.
“Diversos estudios han demostrado que muchos de los diagnósticos que realiza la IA son más precisos que los que puede realizar cualquier equipo médico. También está ayudando a asignar mejor los recursos de la asistencia sanitaria y a realizar tratamientos más personalizados”, explica la doctora.
Sin embargo, también existen riesgos al implantar la IA en el ámbito sanitario, como el de la desinformación. Un ejemplo son los deep fakes o vídeos con imágenes creados por la inteligencia artificial. Son muy peligrosos, ya que pueden usar el rostro de otra persona y modificar su voz y sus palabras.
La IA, un nuevo mercado ya en uso
Según los datos de la consultora Insight10, en España se prevé que el mercado de la inteligencia artificial en salud alcance los 2.500 millones de dólares para el año 2030.
Por otro lado, la tasa pronosticada de crecimiento anual para el periodo 2022-2030 es del 44,22 %.
Lo cierto es que la IA ya está aplicando diversas soluciones en el ámbito sanitario. Un ejemplo claro es el sistema de triaje del Hospital Universitario Parc Taulí. Se trata de un evaluador de síntomas ubicado en urgencias basado en la inteligencia artificial.
Entre los beneficios, se reducen considerablemente los tiempos de espera y se aumenta la seguridad de la asistencia sanitaria.
Por otro lado, la IA también se está implantando en España en centros para la rehabilitación, con visión artificial y desarrollando biomarcadores dirigidos a dianas terapéuticas para conseguir mayor precisión en los tratamientos.
Un compromiso ético
Desde AIES y el instituto #SaludsinBulos se defiende un compromiso ético sobre la IA en salud.
A ellos se han sumado ya distintas sociedades científicas de Atención Primaria y de enfermería, aunque se esperan más asociados.
Decálogo del buen uso de la IA en salud
Para este compromiso, los profesionales de las organizaciones han detallado un decálogo de requerimientos que deberían implantarse para asegurar el buen uso de la IA en salud:
· Autonomía: Para que los sistemas de IA sean eficaces, deben preservar la autonomía de las personas. Asimismo, en el ámbito de la salud, estos sistemas deben poder ser corregidos y supervisados por los profesionales.
· Bienestar: La inteligencia artificial debe promover el bienestar de las personas, y su finalidad debe orientarse al interés público. Para ello, deben desarrollarse sistemas seguros, precisos, eficaces y de calidad.
· Confiabilidad: Para poder inspirar confianza, un sistema de IA debe ser legal, esto es, debe asegurar el cumplimiento de las normativas pertinentes, evitando sesgos y creencias injustificadas.
· Equidad: En la medida de lo posible, los sistemas de IA deben ser equitativos. Para ello, debería extenderse a todas las regiones y así llegar a todas las personas posibles sin ningún tipo de discriminación.
· Información veraz: La IA debe ayudar a la alfabetización en salud y a la identificación y difusión de información verídica en salud. Para ello, es fundamental que identifiquen las fuentes y las referencias de los textos y las imágenes. Además, deben poder contrarrestar la desinformación con información veraz.
· Privacidad: Los sistemas de IA en salud requieren buenos mecanismos que garanticen la privacidad y seguridad en sus datos. De esta forma, serán tratados responsablemente tanto en asistencia sanitaria como en investigación científica.
· Representatividad: Las soluciones elaboradas por inteligencia artificial deben utilizar datos fiables y representativos de su universo. Así cumplirán los principios de justicia, igualdad, diversidad e inclusión con los que se mitigan los riesgos para los derechos fundamentales y la seguridad que plantea la IA.
· Responsabilidad: Deben existir mecanismos que se acojan a la legislación y aseguren la responsabilidad en el desarrollo y uso de los sistemas de IA. Es necesaria una rendición de cuentas que reconozca la responsabilidad ante aquellas personas que se sientan perjudicadas por decisiones basadas en estos sistemas, que puedan cuestionarlas y obtener una reparación.
· Sostenibilidad: Los sistemas de IA en salud deben evaluarse de manera periódica y transparente sobre situaciones reales para saber cómo va el proceso de cumplir las expectativas propuestas. Además, estos sistemas deben reducir al máximo sus efectos medioambientales y ser eficientes energéticamente.
· Transparencia: Esta cualidad hace posible que los sistemas de inteligencia artificial sean comprensibles. Deben estar provistos de información suficiente para que se puedan conocer sus capacidades y limitaciones, así como permitir trazar el recorrido de sus acciones y ser explicables.
Elvira Pérez
EFE Salud.com - 2 de octubre, 2023
No hay comentarios:
Publicar un comentario