Tal y como se muestra a lo largo de la historia, la mejora de la calidad asistencial (CA) en el ámbito sanitario constituye un proceso dinámico, sometido a cambios socioculturales, científicos y tecnológicos, que precisa de una revisión constante de la normativa bioética. De esta forma, ya en el siglo xviii se introdujo el concepto kantiano de «autonomía» del paciente, sustituyendo al tradicional modelo paternalista por una relación consensuada, en la que el paciente actuaría como elemento activo en la toma de decisiones. En 1977, el desarrollo de los «derechos civiles» enfatizó dicha capacidad, traduciéndose legislativamente en el Informe Belmont1.
En el pasado, tales cambios normativos se basaron en conceptos filosóficos y en la necesidad de dar respuesta a exigencias socioculturales. En el siglo actual asistimos al desafío de integrar una serie de tecnologías disruptivas (disruptive technology)2, término acuñado en 1995 por Christensen en su artículo «Disruptive technologies: Catching the wave» y desarrollado más ampliamente 2años después en su libro The innovator's dilemma. Actualmente, 2han sido las tecnologías que se ajustan a este perfil, el desarrollo de la genómica y la inteligencia artificial (IA). Con relación a la primera, fue del 24 al 27 de febrero de 1975 cuando el genetista Paul Berg convocó a 140 científicos y legisladores en el centro de conferencias de Asilomar State Beach en California, con la finalidad de regular la implicaciones bioéticas de la reciente ingeniería genética3. Respecto de la IA, entendida como la creación a través de algoritmos de máquinas que presenten las mismas capacidades del ser humano4, pese a lo genérica de la misma y su enfoque orientado hacia un futuro, cuyos resultados aún no están presentes en la actualidad, resulta incuestionable que la IA en sus distintas manifestaciones, como es el caso de la robótica, actualmente representa una realidad emergente y de resultados impredecibles que si bien aportan innumerables ventajas no están exentas de riesgos, lo que determina un marco de incertidumbre y precaución, que precisa de una regulación bioética de la misma (roboética)5 acorde con nuestros principios y valores.
Con relación a dicho término, es preciso aclarar 2conceptos que frecuentemente son confusos. Por una parte, el término de roboética, acuñado por el robotista Gianmarco Veruggio en 2002, hace referencia al comportamiento del ser humano respecto de dichos dispositivos, abarcando 3procesos: el diseño (programación), la gestión en su elaboración y expansión, y la responsabilidad del usuario con respecto del empleo de los mismos. Dicho concepto no ha de confundirse con el de la ética de las máquinas, que alude al comportamiento moral de los robots en sí mismos.
Constituye, por tanto, el objetivo del presente estudio analizar cuáles son las pautas sobre las que debería de establecerse una normativa bioética respecto de estos dispositivos como antesala de la elaboración de normas jurídicas de regulación legislativa. Dado que se trata de una tecnología emergente, y por tanto de resultados inciertos, la elaboración de las mismas debería de enmarcarse en una primera fase en criterios basados en el respeto de los derechos humanos.
A nuestro juicio, 3serían los principios básicos reguladores: el respeto a la investigación, la justicia y la transparencia.
El respeto a la investigación en el área biosanitaria no constituye únicamente un derecho, sino una necesidad de mejora en CA (tal y como se expuso taxativamente en el quinto principio de la Declaración de Helsinki, Finlandia, 1964). Ahora bien, dicho derecho debe de atenerse a una serie de principios bioéticos fundamentales (regulados localmente por los Comités de Ética de la Investigación y en una última instancia por organismos gubernamentales). Representa, por tanto, una responsabilidad de carácter directo y finalista, toda investigación enfocada a obtener el beneficio del paciente a los programadores encargados del diseño y la elaboración de dichos dispositivos asegurando las máximas garantías de seguridad. Pero no hemos de obviar una responsabilidad indirecta que atañe a los encargados de los mecanismos de fabricación, gestión y distribución de los mismos, quienes serían responsables de no modificar estos principios con relación a otros fines de índole particular. A dichos principios deberían añadirse 2normas esenciales: la «reversibilidad», esto es, la capacidad de interrupción e incluso de eliminación de dispositivos que por alguna circunstancia se aparten de estas normas y la trazabilidad o control constante de que efectivamente su actividad está en consonancia con el principio bioético de su diseño. Las normas anteriormente citadas contribuyen a limitar el marco de incertidumbre, ya que los avances podrían ser inciertos y los alcances bioéticamente inaceptables.
A través del principio de justicia debería de garantizarse que la investigación y el desarrollo de la robótica tenga un carácter equitativo en consonancia con el principio de justicia distributiva, según el cual, los avances en este campo deberían de hacerse extensibles a todos los miembros de la comunidad, para tratar de evitar el «sesgo de aplicabilidad» por el cual determinados grupos menos privilegiados (por razones económicas, raciales o de índole social) tuviesen mermados sus legítimos derechos a beneficiarse de dichos avances. Trascendiendo este principio, correspondería a los distintos organismos gubernamentales la distribución equitativa a nivel mundial de dichos avances para evitar la denominada brecha digital entre países6.
Por último, el principio de transparencia7 alude directamente a los derechos y la autonomía de los usuarios y al principio de seguridad. Todo usuario ha de tener la capacidad de decidir si desea ser asistido por un robot y el derecho a recabar la información que considere necesaria de las decisiones derivadas por el mismo. Por otra parte, dicho principio garantiza que la ejecución del mismo en sus distintas fases cumple con los requisitos bioéticos reseñados.
En conclusión, como toda tecnología emergente, la IA y la robótica precisan de la implementación a priori de unas normas éticas de funcionamiento que garanticen la seguridad en su aplicabilidad en un campo tan sensible como son los cuidados en salud, las cuales si bien no tienen un carácter universal, representan una garantía de seguridad y el preludio de una legislación regulatoria.