Muchos se preguntarán porqué se habla en una Revista de Ortopedia y Traumatología de inteligencia artificial. La verdad es que tarde o temprano la inteligencia artificial se desarrollará a expensas de resoluciones topológicas para evaluación de datos, y cuando esto ocurra el paradigma de investigación basado en la geometría analítica de Descartes, la geometría diferencial de Gauss, y en consecuencia la probabilidad y la estadística habrán cambiado para siempre. El nuevo paradigma será el de los algoritmos matemáticos que incluirán el análisis topológico de los datos. La comprobación de la probabilidad deberá ser llevada a análisis topológico para determinar si la estructura de datos que establece la probabilidad es simplemente conexa y si los “nudos” de datos que se puedan presentar son deslizantes o no. En el primer caso: “simplemente conexa” el asunto aparece resuelto en topología desde el año 20041. En el segundo caso en febrero de este año se publicó la resolución de un problema matemático conocido como el Nudo de Conway en referencia a quien lo teorizó2.
Piccirillo, logró resolver el problema matemático del Nudo de Conway. Recordando que la topología estudia las propiedades de los objetos geométricos cuando estos son deformados, la teoría de nudos estudia las deformaciones que se pueden hacer a una cuerda sin cortarla. Si se corta la cuerda el nudo será no deslizante, si no se corta la cuerda el nudo será deslizante. Sin embargo, la forma de resolver del problema es lo más relevante en la aproximación matemática de Piccirillo: si se crea un nudo más simple que el estudiado (en este caso el de Conway) que tendrá que ser deslizante si y solo si el Nudo de Conway también es deslizante, se puede resolver si en realidad el Nudo de Conway es deslizante o no. En este caso en particular se determinó que el Nudo de Conway no era deslizante. A partir de un nuevo concepto simplificado (el Nudo de Piccirillo) se puede determinar matemáticamente si el antiguo y complejo concepto (el Nudo de Conway) carece de, o posee la característica topológica de ser deslizante.
Imaginemos que tenemos un conjunto de datos que hemos obtenido en el desarrollo de una investigación. Realizamos primero aquello a lo que denominamos estadística descriptiva (geometría analítica y diferencial) y de acuerdo a los resultados definimos que tipo de pruebas vamos a realizar (estadística analítica). En general tendremos dos grandes grupos pruebas: paramétricas y pruebas no paramétricas. Cualquiera de estas pruebas en definitiva es un algoritmo matemático que se aplica a nuestros datos. Pero somos nosotros los que al haber diseñado la intervención en nuestra investigación debemos definir que prueba (algoritmo) utilizar. A la luz del conocimiento actual sabemos que esta aproximación al análisis de datos es imperfecta, pero en matemáticas saber que el problema existe no es lo mismo que probarlo. Algoritmos diferentes a los estadísticos, ya han demostrado ser superiores, como por ejemplo los utilizados por las redes sociales. Pero nuevamente, en matemáticas saber que han sido o no superiores no es lo mismo que probarlo.
Imaginemos por un momento que un computador puede crear una estructura más simple que la estructura de datos que tenemos en nuestra investigación, la cual sería correcta, si y solo si, la nuestra también lo es. Aunque esto no ocurrirá mañana, si ocurrirá en un futuro. Para que la inteligencia artificial exista, al menos estaría pendiente por resolver uno de los problemas matemáticos del milenio: “P versus NP”. Los problemas P (polinómicos) son los que se pueden resolver en un tiempo razonable. Los problemas NP (no deterministas en tiempo polinómico) son aquellos que, aunque sea difícil encontrarles solución, una vez hallada se puede comprobar en un tiempo razonable que la solución es correcta. Si se puede encontrar fácilmente una solución, esta también se podrá verificar de manera sencilla, por lo que todo problema P es también NP. Lo que se desconoce es si hay algún problema NP que no sea P. A la fecha nadie ha sido capaz de demostrarlo. Una forma fácil de explicar “P versus NP” es utilizando un problema P: ¿Cuantas formas de resolver el problema de ubicar a 70 trabajadores en 70 plazas de trabajo existen? la respuesta (factorial) sería 70. Pero a la vez, el cálculo computacional de este número 70, sería del orden de 10 elevado a la centésima potencia (problema NP), lo que significa que ni en la edad del universo podría resolverse computacionalmente este problema. Por lo tanto el problema de “P versus NP”, hace referencia hoy en día a la resolución o búsqueda de los límites computacionales. Una forma de resolverlo es construir computadores gigantescos (Quánticos), pero seguramente alguien, al igual que Piccirillo, encontrará un forma simplificada de resolver el problema desde las matemáticas. Una vez resuelto este problema, estaremos verdaderamente a la puerta de la aparición de la inteligencia artificial, que no se parecerá en nada al Terminator de Hollywood, pero que si impactará directamente en la forma de entender y manejar nuestros datos obtenidos en investigación.