metricas
covid
Buscar en
Revista Médica Clínica Las Condes
Toda la web
Inicio Revista Médica Clínica Las Condes Salud e inteligencia artificial: ¿cómo hemos evolucionado?
Información de la revista
Vol. 33. Núm. 6.
TEMA CENTRAL: CIENCIA DE DATOS CLÍNICOS
Páginas 556-561 (noviembre - diciembre 2022)
Compartir
Compartir
Descargar PDF
Más opciones de artículo
Visitas
10048
Vol. 33. Núm. 6.
TEMA CENTRAL: CIENCIA DE DATOS CLÍNICOS
Páginas 556-561 (noviembre - diciembre 2022)
Open Access
Salud e inteligencia artificial: ¿cómo hemos evolucionado?
Artificial intelligence in health: where are we in 2022?
Visitas
10048
Esteban Basáeza,b,
Autor para correspondencia
ebasaez@clinicalascondes.cl

Autor para correspondencia.
, Javier Morac,d,e
a Jefe Departamento de Neurología. Clínica Las Condes. Santiago, Chile
b Jefe Centro de Innovación. Clínica Las Condes. Santiago, Chile
c Departamento Cirugía Cardíaca, Vascular y Tórax, Clínica Las Condes. Santiago, Chile
d Unidad de ECMO, Clínica Las Condes. Santiago, Chile
e Unidad de Ciencia de Datos Clínicos, Clínica Las Condes. Santiago, Chile
Este artículo ha recibido

Under a Creative Commons license
Información del artículo
Resumen
Texto completo
Bibliografía
Descargar PDF
Estadísticas
Figuras (1)
Resumen

El uso de la Inteligencia Artificial (IA) ha comenzado a ser cada vez más cotidiano. Sus aplicaciones en salud están demostrando ser un complemento de la práctica clínica con buenos resultados. Sin embargo, incorporar tecnologías disruptivas en medicina no resulta fácil, por los principios de no maleficencia, beneficencia, autonomía y justicia que debe velar el acto médico, y por ser complejo y difícil romper paradigmas en un entorno donde la experiencia y la percepción clínica son fundamentales.

Desde el uso del termómetro a algoritmos computacionales que diagnostican enfermedades en imágenes médicas con mayor precisión que el ojo humano, las tecnologías han debido pasar por la demostración científica de sus beneficios. Para ello, actualmente la medicina basada en la evidencia se complementa con técnicas computacionales modernas de procesamiento de grandes volúmenes de datos que antes no era posible realizar, obteniendo valiosa nueva información que se traduce en una prevención y detección temprana de enfermedades más oportuna, diagnósticos más certeros, intervenciones y tratamientos cada vez más personalizados junto a un seguimiento e interacción automatizada entre pacientes y centros de salud. Existe cada vez más investigación en las distintas áreas de las ciencias de la salud que lo demuestran.

En la presente revisión se busca recorrer algunos hitos de la incorporación del aprendizaje automático e IA en salud, y proyectar cómo desde nuestras instituciones podemos aportar mediante investigación, desarrollo e innovación para que estas tecnologías tengan un impacto positivo en beneficio de los pacientes.

Palabras clave:
Inteligencia Artificial
Aprendizaje Automático
Tecnología
Salud
Datos Clínicos
Ética
Abstract

Artificial Intelligence (AI) has become a daily presence. Its applications in healthcare have proved to be a complement to clinical practice with good results. However, incorporating disruptive technologies in medicine is not easy, due to the principles of non-maleficence, beneficence, autonomy and justice that must be ensured by the medical act, and because it is complex and difficult to break paradigms in an environment where experience and clinical perception have key value.

From the use of the thermometer to computational algorithms that diagnose diseases in medical images with greater precision than the human eye, technologies have had to undergo scientific demonstration of their benefits. To this end, evidence-based medicine is now complemented by modern computational techniques for processing huge amount of data in ways that had not been possible before, obtaining valuable new information that enables timely prevention and early disease detection, more accurate diagnoses, increasingly personalized interventions and treatments, and automated follow-up and interaction between patients and healthcare centers. Increasing research in different fields of health sciences support this affirmation.

In this review we show some milestones of machine learning and AI incorporation in healthcare, and projections on how our institutions can contribute through research, development and innovation to ensure that these technologies positively impact and benefit patients.

Keywords:
Artificial Intelligence
Machine Learning
Technology
Healthcare
Clinical Data
Ethics
Texto completo
1Introducción

El termómetro de mercurio fue una innovación tecnológica en su tiempo. Daniel Fahrenheit diseñó en 1714 la columna capilar de mercurio. Poco tiempo después, Herman Boerhaave fue el primero que aplicó la utilidad de este dispositivo para medir la temperatura de sus pacientes. Sin embargo, algo que hoy parece tan obvio y simple, tardó años en ser utilizado como lo hacemos actualmente. Los especialistas de la época no aceptaban que un instrumento así reemplazara la sensibilidad de las manos de un sabio experto para percibir la temperatura de los pacientes; no se entendía que esa privilegiada percepción pudiera ser medida, ni menos, de esa manera. Esto generó que su uso en medicina se consolidara solo a mediados del siglo XIX cuando Carl Wunderlich enunció una explicación científica para el fenómeno de la fiebre. Su utilidad se explicaba por sí sola, pero quebrar paradigmas arraigados en los usos y costumbres de una época resultaba un desafío mayor.

La irrupción de tecnología disruptiva en la sociedad se inicia con un sentimiento de escepticismo y transita por un camino que va desde lo novedoso, la duda, la moda, lo contingente, lo oportunista, lo polémico, lo favorable y lo desfavorable. Finalmente, al pasar por filtros sociales, colectivos y culturales y resultar exitosa, la adopción de esta tecnología se torna fluida y natural y va ganando adeptos en su uso cotidiano. Un ejemplo tangible es el de los teléfonos inteligentes donde siempre se está atento a la actualización de su sistema operativo para ganar funcionalidades o incluso se tiende siempre a buscar el último modelo, aunque los anteriores estén perfectamente operativos.

No obstante, en pleno siglo XXI nos seguimos enfrentando al desafío de entender y adoptar nuevas tecnologías que estén al servicio de la humanidad. En medicina, transitar desde la palabra y experiencia de los sabios especialistas transmitidas por generaciones, hacia la medicina basada en la evidencia generó una importante resistencia1,2. Hoy, hablar de inteligencia artificial (IA) y aprendizaje automático en salud resulta aún “disruptivo” y al ser un campo del conocimiento aún no bien comprendido no hemos podido explotar sus posibilidades, lo que en otras industrias como el marketing ya está incorporado como una herramienta casi cotidiana.

Otro ejemplo claro de tecnologías disruptivas en su momento fue la migración del sistema Kardex para administrar referencias bibliográficas, a los potentes motores de búsquedas digitales actuales; o pasar desde la ficha de papel hasta registros médicos completamente electrónicos. Todos ellos reflejan que el romper paradigmas en la salud moderna puede constituir la barrera más difícil de vencer que la implementación de una tecnología en sí misma.

En el año 1962 llegó a Chile el primer computador digital para aplicaciones científicas y de ingeniería del país, un ER-56 Standard Elektrik Lorenz. Este equipo, con una capacidad de memoria de 31 kilobytes ocupaba un gabinete de 12 por 2,3 metros y pesaba 8.950 kilos. Hoy un teléfono de última generación pesa 180 gramos y puede almacenar 1 terabyte de información, lo que son 1.700 millones de veces más de información. Esto ejemplifica, cincuenta años después, que el hardware ya no es la limitación ni el foco principal, sino en lo que se hace con los datos y la información relevante que éstos generan (Fig. 1).

Fig. 1.

Foto extraída del primer computador universitario en Chile: “El hogar desde donde salió y se repartió la luz”. Versión ampliada del paper presentado en el II SHIALC (Simposio de Historia de la Informática en América Latina y el Caribe), realizado en Medellín, Colombia, en octubre de 2012.

(0.15MB).

Este artículo pretende recorrer los principales hitos de la aún incipiente incorporación de las tecnologías de aprendizaje automático e IA en salud, y proyectar cómo desde nuestras instituciones podemos aportar a su investigación, desarrollo e innovación.

2Contexto histórico

Hace más de 2000 años Hipócrates sostenía: “es más importante saber qué tipo de persona tiene una enfermedad, que saber qué tipo de enfermedad tiene una persona”. En la era moderna, Robert Califf y Robert Rosati señalaban en 1981: “la correcta interpretación y uso de los datos informatizados dependerá tanto de los médicos sabios como de cualquier otra fuente de datos del pasado”2. Ambas ideas, dentro de un contexto de “desarrollo tecnológico” de su tiempo (la enfermedad para Hipócrates y los datos en la era computacional), se centran en el ser humano: en el enfermo y en el médico, respectivamente, dejando a la tecnología como un complemento del primero. Estas reflexiones, tan separadas en el tiempo, convergen actualmente en una realidad en que el hombre se ve cada vez más embebido en máquinas, normalizando una simbiosis que literalmente va en ambos sentidos: el ser humano utilizando la tecnología, y las máquinas aprendiendo del ser humano.

Si bien en los trabajos fundacionales de Alan Turing en la primera mitad del siglo XX se comienzan a esbozar conceptos sobre “máquinas inteligentes”, no es hasta 1956 cuando se formaliza el concepto y la disciplina de la IA en la conferencia de Darmouth3. Desde ahí se ha llegado a plantear incluso que el pensamiento pudiera ser una forma de computación no exclusiva de los seres humanos o seres biológicos. La hipótesis y propósito de Turing de que la inteligencia humana sea posible de reproducir o simular en máquinas aún no está resuelta.

“Logic Theory Machine” es considerado el primer programa computacional de IA, diseñado para descubrir demostraciones de teoremas en lógica simbólica4. Sus autores propusieron un enfoque heurístico (reglas generales) para encontrar a través de un árbol de búsqueda de “manera inteligente” una solución al problema, planteando además que esto se lograba en un alto porcentaje de los casos, pero no en su totalidad.

Muchas resoluciones de problemas implican tomar decisiones que se pueden modelar a través una estrategia entregada por el recorrido en un “árbol de decisiones”. Los algoritmos de búsqueda heurística se basan en representar el conocimiento implícito o procedimental que poseen los seres humanos de forma explícita, utilizando símbolos y reglas para construir un programa computacional. Por ello, a esta etapa de desarrollo se le denomino “IA simbólica”, con la abstracción de la mente humana como una computadora procesadora de símbolos. Surgen los sistemas expertos para codificar el razonamiento humano en dominios específicos, como lo fueron los sistemas de apoyo al diagnóstico médico con motores de inferencia o como las bases de información que resumen la evidencia científica disponible en la literatura5.

Con una mirada más biológica en 1958 el psicólogo Frank Rosenblatt propuso el concepto del “perceptrón” como una neurona que podía “aprender” mediante coeficientes de ponderación para cada entrada de la neurona. Esto constituye la unidad fundamental de la técnica de aprendizaje automático denominado redes neuronales (deep learning o representation learning) que ha demostrado muy buen resultado en la mayoría de las tareas que se pueden resolver con aprendizaje automático6. A esta etapa del desarrollo se le conoce como IA conexionista. No fue hasta 1980 que esta técnica volvió a tomar protagonismo con mejoras en su modelo, como la incorporación de la retro propagación (back-propagation)7. Posteriormente es gracias a estos avances que se desarrollaron nuevas aplicaciones basadas en redes neuronales, donde la IA simbólica no logró el éxito esperado. Ejemplo de ello fueron el reconocimiento facial, detección y clasificación de cáncer en imágenes médicas que comienzan a tener mayor precisión que el humano, traductores de idiomas y asistentes virtuales, entre otros. En particular, el reconocimiento visual tuvo una importante mejora con el modelo de red neural convolucional, inspirada en características anatómicas y fisiológicas de la visión animal8.

Con todo, la salud está inmersa en la “cuarta era industrial” que conjuga la convergencia de tecnologías digitales, físicas y biológicas. Esto tiene un rol preponderante en la sociedad actual, donde una dinámica y rápidamente cambiante tecnología “de punta” pone desafíos no solo de recursos físicos y humanos para su implementación, sino también de conceptos y formas de abordar la medicina moderna en un ámbito del conocimiento humano, muchas veces resistente a los cambios y donde la experiencia y el “ojo clínico” velan siempre de manera subjetiva por la seguridad del paciente y por los buenos resultados. Desde Hipócrates hasta nuestros días, frente a la enfermedad las personas necesitan de un cuidado que le brinde alivio, cualquiera sea la tecnología que para ello se utilice.

3El salto del texto libre de los registros clínicos

Hasta hace poco al solicitar datos de registros médicos electrónicos a las unidades de informática o estadística, estas se condicionaban a entregar solo texto estructurado tabulado (tablas), dejando de lado el “texto libre” argumentando, además de la dificultad técnica de su obtención en algunos casos, que no serían de utilidad porque “no se podían procesar”, perdiéndose valiosa información referente a situaciones clínicas que se encuentra en evoluciones, informes, protocolos operatorios, etc.

Los sistemas de registros clínicos electrónicos (Electronic Health Record, EHR) fueron concebidos inicialmente con fines de gestión administrativa-financiera, más que clínica. Con el desarrollo de los mismos, el mundo médico y de la administración en salud han visto la utilidad de los datos y de su correcto análisis e interpretación en pro de realizar una medicina más eficiente y segura. No es si no hasta las últimas décadas donde, además de estar logrando importantes avances en la estandarización e interoperabilidad de los sistemas de registros a nivel global es que se le está dando la valiosa utilidad de procesar esos grandes e incrementales volúmenes de datos almacenados en forma diaria.

Algo que para los científicos de datos ya es algo es rutinario, para los médicos clínicos comienza a ser una poderosa herramienta de la que podemos valernos en distintos aspectos y con la cual debemos familiarizarnos. Es relevante y satisfactorio a la vez saber que con esta manera de modelar datos podemos reencontrarnos con una utilidad real (del punto de vista del análisis) de largos textos de evoluciones clínicas, interconsultas, informes, protocolos, etc. Al mismo tiempo, despierta el interés en líneas de investigación donde podamos encontrar asociaciones o incluso nueva información que de otra manera no veríamos, que puedan responder a hipótesis o ayudarnos a encontrar respuestas a problemas de la práctica diaria. A medida que estos modelos de texto libre vayan evolucionando (“aprendiendo” con nuestros propios datos) nos van a ayudar, a su vez, a “mejorar” la propia escritura de los mismos, en el sentido de entender o interpretar mejor las abreviaturas, planteamientos diagnósticos o terapéuticos, y corregir errores involuntarios en la redacción o escritura de terminología y semiología médica que los procesadores actuales aún “no entienden”.

Un aspecto muy valioso también de todo lo anterior es disponer de cada vez más de modelos con corpus de datos en español, que aún está en desventaja respecto a los algoritmos que ya resuelven muchos problemas desde el texto libre pero en idioma inglés. Además, sabiendo que el aprendizaje automático no está exento de sesgos según el origen de los datos que utiliza, resulta trascendental que estos modelos “aprendan” con datos desde nuestras culturas y sociedades para minimizar los sesgos9.

El procesamiento de lenguaje natural (PLN) utilizando algoritmos denominados “red neuronal recurrente” de deep learning, logra utilizar herramientas lingüísticas en la resolución de problemas o tareas clínicas específicas. Mediante datos secuenciales y almacenamiento de un estado interno que codifica información sobre elementos anteriores dentro de una secuencia de texto influyentes en el resultado final10 es factible, con cada vez más agudeza y precisión, obtener excelentes resultados de predicción y clasificación que de otra manera serían imposibles de solucionar o que definitivamente tomarían demasiado tiempo y recursos en ello. Como ejemplo, podemos predecir rehospitalización en pacientes utilizando un corpus de datos clínicos altamente no estructurados en español11.

4Ética y aprendizaje automático en salud

A pesar de ser metodologías científicas objetivas basadas en operaciones matemáticas de las que se esperaría un alto nivel de exactitud (ciencias exactas), existen sesgos en los modelos de aprendizaje automático, como ha ocurrido con textos sexistas y racistas generados con modelos de lenguaje usando redes neuronales12. Por ello, el desarrollo de estas tecnologías aplicadas en la salud debe considerar este aspecto durante el “aprendizaje” de los algoritmos, su interpretación por los expertos del dominio y, más aún, en su implementación con pacientes y población general. En el mundo académico actual es un tema relevante. Al respecto, se han propuesto acciones posibles que se pueden llevar a cabo colectivamente para apoyar a investigadores en todo el campo de la ética de la IA, especialmente a los de grupos marginados que pueden experimentar aún más barreras para comunicar y hacer que su investigación se amplíe13.

La captura de datos clínicos es fundamental para construir repositorios robustos, pero deben considerarse cuidadosamente todos los aspectos éticos y legales, tanto en su origen como para poder ser procesados. A pesar del evidente aumento de la cantidad de datos que actualmente se dispone desde diferentes fuentes es también sabida la gran avidez por conseguir datos de alta calidad en el dominio de trabajo, especialmente conjuntos de datos pre - procesados (que es el principal dolor al comenzar todo proyecto de ciencia de datos), como así también para aumentar un banco de datos propios complementados con datos nuevos para mejorar los entrenamientos. Para ello se recurre a repositorios públicos abiertos o a privados que entregan este servicio. En salud, en general cada centro o red de salud resguarda la integridad y seguridad de sus datos; como así también cada grupo trabaja con sus propios datos. Pero existen en las industrias empresas conocidas como “data brokers” (agentes de datos) que comercializan bases de datos con contenidos sensibles, incompletos o falsos, sin ningún estándar ético o legal14. Cautelar un uso correcto de los datos, desde su origen, procesamiento y uso final, es la responsabilidad inicial de cada institución bajo la elaboración y aplicación de una adecuada “gobernanza de datos” que propicie las buenas prácticas tanto a los especialistas como a usuarios finales. El rol del Estado es también relevante, pues mediante leyes pertinentes deben proteger a las personas y a las instituciones en este sentido, y promover condiciones seguras y apropiadas para su desarrollo, tanto en el ámbito público como privado. La regulación del acceso a datos mediante la restricción, protocolización y auditoría del acceso a los datos no debe ser sinónimo de impedir acceso.

Las decisiones que toma un modelo automático son resultado de las instrucciones de un programador humano o según reglas que aprende automáticamente un algoritmo a partir de datos del pasado. Aprender automáticamente a partir de datos del pasado considera al pasado como la verdad absoluta del futuro que se desea; pero se aprende del pasado porque es el recurso con que se dispone para ello, aunque éste contenga prejuicios y sesgos de diversos tipos. Si se codifican los datos del pasado en sistemas informáticos sin exigirle una explicación de sus decisiones, entonces se está permitiendo que el pasado defina el futuro sin cuestionarlo.

Así también, estas tecnologías implican un costo en recursos físicos y humanos que no deben comprometer la distribución ética de los recursos en salud, cuya brecha es aun muy amplia en nuestros países latinoamericanos. Existe además por sí sola una brecha digital en los distintos estratos sociales, que se suma a la anterior y amplía el desafío de la equidad, tanto para la implementación de nuevas y a veces costosas tecnologías en beneficio de la salud de la población, como en el acceso y uso adecuado de la misma. La oportunidad de disponer de computación en la nube (cloud computing) abarata también significativamente los costos, tanto para su incorporación en los sistemas de salud como en la mantención, renovación y depreciación de equipos computacionales, que de otra manera resulta caro u obliga a quedar desactualizado si no se generan los cambios adecuados por falta de presupuesto15; pero que a su vez exige considerar la seguridad de almacenamiento, privacidad y disponibilidad de los datos tanto para los profesionales como para los mismos pacientes. Adaptar e implementar algunas de estas aplicaciones con tecnologías de bajo costo, como el uso de recursos computacionales de código abierto (open source), son sin duda una valiosa herramienta que puede permitir que los beneficios de la IA en salud lleguen a más personas. Esto, a su vez, compromete a autoridades, profesionales, académicos y científicos en el trabajo permanente de Investigación, Desarrollo e Innovación (I+D+i) en esta línea, para generar un impacto positivo en la salud y bienestar de los pacientes y de la sociedad en general.

5Conclusiones

Los modelos que apoyan las decisiones clínicas pueden ser sistemas cien por ciento autónomos o en los cuales la última decisión la toma finalmente un ser humano (sistemas “semi-automatizados”)16, donde se ha demostrado en este último caso que las personas confían más en el resultado de un algoritmo que en el propio cuando hay contradicción entre ellos17. En ambos casos se ha visto similares niveles de riesgo concernientes con la afectación de grupos protegidos. Sin embargo, hay que considerar también que existe evidencia del riesgo de aplicarlos a problemas sociales18.

Una de las razones de la dificultad de entender y asimilar estas técnicas en medicina es el problema de que algunos modelos, pese a un alto nivel de acierto en resolver tareas, no pueden ser examinados para comprender cómo llegaron a sus resultados finales o intermedios lo que es un aspecto hasta ahora fuertemente arraigado en la medicina basada en la evidencia. Es el caso de los algoritmos de aprendizaje profundo que por ser difíciles de interpretar y comunicar por humanos se les asigna las características de “cajas negras”19,20. ¿Permiten estos modelos transparencia y la posibilidad de explicar e interpretar sus resultados?

Tanto en la investigación científica de punta como en las aplicaciones comerciales creadas en la industria, la IA ayuda a reducir brechas de acceso a estas tecnologías por amplios sectores de la sociedad en forma transversal. En salud, este polo de desarrollo debe permitir no solo obtener y utilizar tecnologías del estado del arte, sino también asegurar su llegada a amplios sectores de la sociedad en forma transversal en directo beneficio de la salud de la población, impactando, a su vez, en el desarrollo de nuestros países.

Actualmente se promueve la comunidad global de investigadores de ética de la IA y la evolución de las normas aceptadas entre profesionales de las ciencias de datos, que guíen un futuro tecnológico que mejore la vida para todos.

Es así como el Centro de Innovación en Salud de la Dirección Académica de Clínica Las Condes espera contribuir al ecosistema de salud nacional e internacional (especialmente latinoamericano), constituyendo un polo de desarrollo de IA y aprendizaje automático aplicado a las ciencias de la salud y a la industria, siempre alineados a la política chilena de IA que usa como principios transversales el desarrollo de inteligencia centrado en las personas, fomentando el desarrollo sostenible, enfatizando los aspectos de seguridad e inclusión21.

6Declaración de conflicto de interés

En la redacción del siguiente escrito no existe ningún conflicto de interés con industrias, organizaciones ni patrocinio de ningún tipo.

Bibliografía
[1]
J.J. Goldman, T.L. Shih.
The limitations of evidence-based medicine--applying population-based recommendations to individual patients.
Virtual Mentor., 13 (2011), pp. 26-30
[2]
R.M. Califf, R.A. Rosati.
The doctor and the computer.
West J Med., 135 (1981), pp. 321-323
[3]
J. Moor.
The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years.
AI Magazine, 27 (1911), pp. 2006
[4]
A. Newell A, Simon H. The Logic Theory Machine–A Complex Information Processing System. IRE Transactions on Information Theory 2. 1956.
[5]
A. Abeliuk, C. Gutiérrez.
Historia y evolución de la inteligencia artificial.
Revista BITS de Ciencia., (2020), pp. 21
[6]
Y. LeCun, Y. Bengio, G. Hinton.
Deep learning.
Nature, 521 (2015), pp. 436-444
[7]
D.E. Rumelhart, G.E. Hinton, R.J. Williams.
Learning Representations by Back-Propagating Errors.
Nature., 323 (1986), pp. 533-536
[8]
A. Krizhevsky, I. Sutskever, J.E. Hinton.
Imagenet Classification with Deep Convolutional Neural Networks.
Adv Neural Inf Process Syst., (2012), pp. 25
[9]
Cañete J, Chaperon G, Fuentes R, Ho JH, Kang H, Pérez J. Spanish Pre-Trained BERT Model and Evaluation Data PML4DC at ICLR 2020. Disponible en: https://pml4dc.github.io/iclr2020/papers/PML4DC2020_10.pdf.
[10]
Mikolov T, Karafiát M, Burget L, Cernocký J, Khudanpur S. Recurrent Neural Network based Language Model. INTERSPEECH 2010, 11th Annual Conference of the International Speech Communication Association. 2010.
[11]
Fierro C, Pérez J, Mora J. Predicting unplanned readmissions with highly unstructured data. 2020. Workshop paper at AI4AH, ICLR 2020. doi: 10.48550/arXiv.2003.11622.
[12]
J. Zou, L. Schiebinger.
AI can be sexist and racist - it's time to make it fair.
Nature, 559 (2018), pp. 324-326
[13]
C. Ebell, R. Baeza-Yates, R. Benjamins, H. Cai, M. Coeckelbergh, T. Duarte, et al.
Towards intellectual freedom in an AI Ethics Global Community.
AI Ethics, 1 (2021), pp. 131-138
[14]
Fry H. Hello world: Being human in the age of algorithms. WW Norton & Company, 2018.
[15]
Gachet D, de Buenaga M, Aparicio F, Padrón V. Integrating Internet of Things and Cloud Computing for Health Services Provisioning: The Virtual Cloud Carer Project. 2012 Sixth International Conference on Innovative Mobile and Internet Services in Ubiquitous Computing, 2012, pp. 918-921. doi: 10.1109/IMIS. 2012.25.
[16]
Orwat C. Risks of Discrimination through the Use of Algorithms. A study compiled with a grant from the Federal Anti-Discrimination Agency. 2020. Disponible en: https://www.antidiskriminierungsstelle.de/EN/homepage/_documents/download_diskr_risiken_verwendung_von_algorithmen.pdf?__blob=publicationFile&v=1.
[17]
Eubanks V. Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin's Press. 2018.
[18]
Chiusi F. Automating Society Report 2020. Disponible en: https://automatingsociety.algorithmwatch.org.
[19]
Ras G, Xie N, van Gerven M, Doran D. Explainable Deep Learning: A Field Guide for the Uninitiated. arXiv preprint, 2020. doi:10.1613/jair.1.13200.
[20]
Mehrabi N, Morstatter F, Saxena N, Lerman K, Galstyan A. A Survey on Bias and Fairness in Machine Learning. arXiv preprint. 2019. doi:10.48550/arXiv.1908.09635.
[21]
Política nacional de inteligencia artificial. Gobierno de Chile, Ministerio de Ciencia, Tecnología, Conocimiento e Innovacion; 2021. https://minciencia.gob.cl/uploads/filer_public/bc/38/bc389daf-4514-4306-867c-760ae7686e2c/documento_politica_ia_digital_.pdf.
Descargar PDF
Opciones de artículo
Quizás le interese:
10.1016/j.rmclc.2022.05.007
No mostrar más