La inteligencia artificial (IA) es tendencia en el mundo del comercio, la ciencia, la salud y la geopolítica. El aprendizaje profundo, un subconjunto del aprendizaje automático, despertó el interés estratégico para investigadores, científicos, directores ejecutivos visionarios, académicos, grupos de expertos geopolíticos, empresarios pioneros, inversores de capital astuto, consultores de estrategia y ejecutivos de gestión. Pero este renacimiento de la IA tiene un problema fundamental que no ha podido ni podrá ser resuelto y que muy poco se comenta.
Investigadores de la Universidad de Princeton, la Universidad de Waterloo, Technion-IIT, la Universidad de Tel Aviv y el Instituto de Matemáticas de la Academia de Ciencias de la República Checa, han demostrado recientemente que el aprendizaje automático tiene un problema sin solución, de acuerdo con una publicación de Nature Machine Intelligence. Y es que la capacidad de aprendizaje de la inteligencia artificial no se puede probar ni refutar cuando se utilizan los axiomas estándar de las matemáticas.
Los investigadores llegaron a esta conclusión a través de lo que se conoce en matemáticas como la hipótesis del continuo. En teoría de conjuntos, la hipótesis del continuo es una explicación propuesta con respecto a los posibles tamaños de conjuntos infinitos. Un conjunto en matemáticas es una colección de objetos, y los conjuntos pueden ser finitos o infinitos. En cualquier caso, no se tiene que contar los elementos individuales para comparar los conjuntos.
Georg Cantor demostró que el continuo no es contable: los números reales son un infinito más grande que los números de conteo. Este descubrimiento inició el campo de la teoría de conjuntos de las matemáticas en 1878. Más tarde (1900) David Hilbert presentó una lista de problemas matemáticos no resueltos en el Congreso Internacional de Matemáticos en París, de los cuales, “el problema de Cantor sobre el número cardinal del continuo” era el primero. Y finalmente tres décadas después, Kurt Gödel demostró que la negación de la hipótesis del continuo no se podía probar en la teoría de conjuntos estándar.
“Gödel fue el primer hombre en demostrar que ciertos teoremas matemáticos no pueden ser probados ni refutados con el método riguroso y aceptado de las matemáticas … Gödel realmente demostró este teorema, no solo con respecto a las matemáticas, sino para todos los sistemas que permiten una formalización, esa es una descripción rigurosa y exhaustiva, en términos de la lógica moderna: para ningún sistema así no se puede demostrar su libertad de las contradicciones internas con los medios del sistema en sí”. Dijo John von Neumann, matemático, físico, científico informático.
El trabajo de Gödel sobre la hipótesis del continuo se completó en los 60 cuando el matemático estadounidense Paul Cohen demostró que la inexistencia de un conjunto de tamaño intermedio no es demostrable. Así que tanto Gödel como Cohen demostraron que la validez de la hipótesis del continuo era indecidible porque dependía de la versión de la teoría de conjuntos utilizada. No se puede probar si es correcta o incorrecta.
Ante este axioma, los investigadores analizaron los algoritmos de inteligencia artificial, que utilizan principios matemáticos y estadísticos para permitir que las máquinas funcionen sin programación explícita (codificación rígida). Los investigadores entonces se centraron en un problema de aprendizaje llamado “estimado del máximo” (EMX). Usando este modelo el equipo descubrió que sin importar el método matemático que se use, no hay garantías de si la inteligencia artificial es capaz de manejar la tarea o no.
En otras palabras, los investigadores teorizan que la capacidad de una máquina para aprender (capacidad de aprendizaje) está limitada por matemáticas que no se pueden demostrar. Así que este concepto de los conjuntos de los años 1800 puede venir a afectar el desarrollo de la inteligencia artificial en nuestro futuro próximo.