En el contexto de la asistencia sanitaria, la robótica constituye una manifestación de las tecnologías emergentes de crecimiento exponencial cada vez más instaurada en países desarrollados, con una determinante repercusión sobre la calidad asistencial. Expresión de ello es la existencia de robots que prescriben y curan, que efectúan intervenciones quirúrgicas (robot Da Vinci®), máquinas que no solo cuidan al ser humano en sus necesidades fisiológicas sino que aportan ayuda psicológica (por ejemplo, el robot Nuka®, que recrea a un animal de compañía), que extraen sangre con mínimo dolor, como el modelo Veebot®, un robot capaz de extraer sangre y poner vías venosas sin errores y con el mínimo dolor posible, ya que analiza el brazo para detectar el mejor lugar para el pinchazo, con una precisión a la hora de introducir la aguja superior a la de cualquier humano…, la lista sería interminable, con la peculiaridad de que es un campo en expansión constante con unas posibilidades de aplicación imprevisibles1.
A través de la combinación de distintas técnicas y estructuras que constituyen el eje fundamental para el funcionamiento de un robot, el desarrollo de la robótica como ciencia no solamente se ocupa de la construcción física, sino que abarca su diseño, manufactura y la programación de las tareas que ejecutará. Dado que la convivencia con dichos entes tecnológicos representa una de las áreas sanitarias con mayor proyección de crecimiento, se impone la necesidad de adoptar una serie de medidas protectoras ya que, pese a que no existe suficiente evidencia científica, podrían ser inductores de riesgos (principio de precaución). Es necesario, por tanto, establecer un nuevo marco ético que regule la relación entre el ser humano y el robot, esto es, una ética aplicada dirigida a reflexionar sobre los conflictos morales derivados de los resultados de los avances tecnológicos en este campo. Este es el origen de la «roboética», que tiene por objetivo analizar los problemas morales derivados de la aplicación de las nuevas tecnologías y su impacto en la modificación tanto de la corporeidad (por ejemplo, prótesis biónicas o inteligentes) como de la propia mente humana (por ejemplo, injertos biónicos para el control del temblor en el Parkinson) y valorar la licitud de ciertas aplicaciones, que podrían abarcar un campo muy amplio: desde el de las actividades que ya ejecutan hasta la hipotética creación de nuevos seres humanos2.
El objetivo del presente estudio es razonar y exponer que el primer y más prioritario principio de la roboética ha de basarse en un criterio de responsabilidad, no tanto porque esta es inherente al concepto de ética, sino porque en caso de una eventual acción incorrecta realizada por un robot, inevitablemente surgirían los siguientes interrogantes: ¿quién es el responsable?, ¿el robot o su constructor?, ¿el constructor o su programador? Por otra parte, la estructuración de un marco bioético adecuado resulta esencial en la elaboración de un sistema legislativo que regule jurídicamente la relación entre el ser humano y la máquina, ya que la historia muestra que los preceptos éticos han de preceder y condicionar la jurisprudencia3.
La respuesta a tales dilemas puede enfocarse desde 2perspectivas. Por un lado, desde una ética conceptualista, considerando al robot como causante directo de su acción (visión utilitarista; por otro, a través de una ética deontológica de origen kantiano, que analiza las motivaciones que conducen al sujeto a ejecutar una acción4. Resulta evidente considerar más razonable la segunda, por cuanto que las consecuencias derivadas de la acción del agente (el robot) representan la expresión de una conducta regulada por dos tipos de agentes externos: los que lo programan a través de códigos previamente establecidos y actúan, por tanto, como inductores en la toma de decisiones de una determinada actividad en situaciones concretas (programadores) y, los agentes técnicos (constructores) responsables de su fabricación, que han de conocer la finalidad última del producto manufacturado. En este sentido, habría que incorporar un matiz adicional. Podría existir una responsabilidad ética directa, que correspondería al programador y una responsabilidad indirecta atribuible al usuario, con independencia de su programación o construcción. Por ello, hemos de distinguir entre responsabilidad de programación, construcción y empleabilidad. En aquellos casos de robots e-learning, esto es, con capacidad de autorregulación, dado que por su configuración podrían disponer de cierto grado de autonomía en la toma de decisiones con base en su capacidad de autoaprendizaje, la responsabilidad sería indirecta, ya que el usuario debe ser responsable de conocer y aceptar dichas condiciones, puesto que, por definición, la inteligencia artificial aún carece de capacidad de discernimiento entre el bien y el mal, tal y como se entiende desde una perspectiva humanística5.
La Federación Internacional de Robótica expresa con claridad que: «En el futuro habrá robots trabajando mano a mano con humanos, lo que ayudará a reemplazar procesos rígidos de producción por estructuras flexibles». Es cierto que representará la eliminación de ciertas ocupaciones tradicionalmente realizadas por humanos con los previsibles problemas sociosanitarios, pero no hemos de caer en el pesimismo, por cuanto también representarán la apertura a nuevas competencias hasta ahora desconocidas.
Es previsible aventurar que la coexistencia «humano-robot» se impondrá a través de un modelo simbiótico de cooperación entre seres humanos y máquinas que, en conjunto, representará unos resultados de eficacia y seguridad muy superiores a los individuales en la asistencia sanitaria6. No obstante, no hemos de cometer el error de pretender que el robot adquiera una completa autonomía, ya que el programa que determina su actividad está en continua evolución y sometido a revisiones periódicas realizadas por humanos, con la consabida posibilidad de cometer errores susceptibles de generar daños.
Por tanto, se impone la necesidad de establecer unas normas éticas basadas en la responsabilidad del ser humano sobre la tecnología como primer paso hacia un futuro próximo en el que la coexistencia del ser humano y las máquinas deberá aportar una mayor calidad asistencial.