El progresivo desarrollo de la inteligencia artificial (IA) en el área de los cuidados sanitarios, manifestada en última instancia en el Deep Learning (conocimiento profundo) constituye actualmente un área tecnológica en progresivo crecimiento que precisa de una regulación ética a priori para evitar conflictos imprevisibles1.
El motivo de esta carta constituye plantear el dilema entre las nuevas tecnologías y el concepto de autonomía, asumiendo que éste constituye un principio básico de la bioética basado en normas autolegislativas intrínsecas al ser humano y, por tanto, de carácter no heterónimo, esto es, no impuesto de forma ajena al mismo. La creencia tradicional ha sostenido que representaría un error atribuir esta característica a elementos mecanizados, por cuanto estos se basan en un sistema programación y supervisión constante por parte del responsable de los mismos, de hecho, un principio fundamental de la robótica sostiene que la IA carece de conocimientos de sentido común.
Ahora bien, la evolución de dichas tecnologías pone en duda dicho principio, para lo cual expondremos de forma resumida la evolución de las mismas para avalar dicha afirmación.
En primer lugar, la IA surgida en la década de 1960, se concibió para resolver tareas habituales para los seres humanos pero complicadas para las computadoras (planificación, reconocimiento de objetos, realización de actividades creativas…). Posteriormente el desarrollo del Machine Learning (aprendizaje automático), aparece como la necesidad de que dichos mecanismos, en función de la necesidad de procesar una gran cantidad de datos (big data) fuesen capaces de elegir la decisión más adecuada, con independencia de que su criterio de elección fuese previamente programado (aprendizaje supervisado) ya que la ingente información en el ámbito sanitario impide la programación de reglas prediseñadas aplicables al procesamiento de combinaciones prácticamente infinita de datos. La necesidad, por tanto, de procesar la información implica la elaboración de sistemas de toma de decisiones de forma automática, esto es, se precisaría que las máquinas aprendan de su propia experiencia (aprendizaje por refuerzo). En principio este tipo de intervenciones se basarían en el mencionado aprendizaje supervisado, ya que en el mismo se precisa de la actuación del ser humano para diferenciar lo correcto de lo incorrecto, como mecanismo de potenciar el aprendizaje por refuerzo. Pero la actuación de los humanos es un componente inicial de este proceso, ya que una vez que proporcionan el entrenamiento adecuado, un sistema analítico basado en algoritmos sería capaz de generalizar y aprender a tomar decisiones de forma autónoma.
El problema se acentúa con la aparición de una tecnología disruptiva como es el Deep Learning basado en estructuras lógicas que se asemejan a una red neuronal artificial, semejante al sistema nervioso de los mamíferos estructurada en una serie de niveles de decisión jerarquizados2. De esta forma, en un nivel inicial, la red es capaz de aprender algo simple, enviando dicha información a un nivel superior, el cual combina dicha información, elaborando una información más compleja que enviaría al siguiente nivel y así sucesivamente. A diferencia del Machine Learning, este modelo computacional al imitar las características del sistema nervioso, permite que en el contexto de un modelo global existan unidades especializadas en la detección de características ocultas en los datos. Progresivamente, funciones típicamente humanas como el aprendizaje y el lenguaje se fusionarían con distintas capacidades psicológicas como el razonamiento, la atención, las emociones o la motivación. Uno de los grandes avances de estas tecnologías es la generación de un valor añadido del que pueden derivarse innumerables beneficios para la sociedad, por lo que asistimos a la progresiva implantación del Deep Learning en distintos ámbitos de la tecnología sanitaria como es el análisis de imágenes médicas3, aportando una mayor precisión diagnóstica, menor tiempo de procesamiento y una marcada reducción de costes, explorando la reutilización de fármacos ya conocidos frente a nuevas enfermedades, la investigación de enfermedades raras o los avances en genética4. Ahora bien, no solamente es necesario que sus decisiones sean las correctas (p. ej., mayor capacidad de acierto en la interpretación de imágenes médicas) sino que estas también sean justas, evitando de este modo la creación de brechas digitales que garanticen la equidad sanitaria evitando sesgos poblacionales (p. ej., discriminación de ciertas minorías étnicas) compartir los beneficios y asegurar la sostenibilidad energética y medioambiental.
Asistimos, por tanto, a un nuevo escenario en el que las máquinas, actuando mediante el análisis de los macrodatos en función de algoritmos programados y su propia capacidad de autoaprendizaje tendrán autonomía propia en la toma de decisiones trascendentales en materia de salud, que no necesariamente estarán en consonancia con los valores tradicionales de una ética humanística, tales como el derecho a la privacidad o el derecho a decidir (consentimiento informado), es por ello fundamental que la IA pueda esté dotada de un código de valores, que condicione, a nuestra imagen y semejanza, la esencia de sus actos.
El debate que se plantea, por tanto, es conseguir que dicha autonomía esté guiada por valores basados en la bioética y orientada hacia el bien común, de ahí que algunos expertos del Massachusetts Institute of Technology (MIT) hayan introducido el término de Machine Teaching en lugar de Machine Learning, subrayando la importancia no de la tecnología en sí, sino del comportamiento ético de las personas que la elaboran5.