La novela ‘¿Sueñan los androides con ovejas eléctricas?’ es una de las más conocidas dentro del género de la ciencia-ficción. Dio lugar a una famosísima adaptación cinematográfica, ‘Blade Runner’, y trata sobre los límites difusos entre la inteligencia artificial y la humana. Asistimos atónitos, casi cada día, a las muestras de lo que la inteligencia artificial es capaz de hacer, llevamos una o más en nuestro bolsillo, en forma de teléfono móvil, y hemos visto a robots ganar a campeones humanos al ajedrez.
Sin embargo, en nuestro fuero interno albergamos cierta esperanza de que la inteligencia artificial no logre sustituirnos completamente, agarrándonos a las actividades más humanas: los sueños, la creatividad o, por qué no, la ciencia. ¿Puede una inteligencia artificial hacer ciencia, crear bellísimas teorías científicas como la relatividad general, la gravitación universal o la cromodinámica cuántica, por poner solo unos ejemplos? ¿No exige creatividad el desarrollo de una nueva teoría científica? ¿Tienen eso los robots?
Veremos que sí. En el laboratorio de Inteligencia Artificial del Instituto de Investigación en Ingeniería de Aragón (I3A) varios grupos de investigadores nos dedicamos a desarrollar los ingredientes que lo hacen posible, dentro de una corriente internacional que, como es lógico, ha despertado gran interés.
Pero vayamos por partes.
¿Qué sabe hacer una inteligencia artificial?
En realidad, una inteligencia artificial sabe hacer muy pocas cosas. Sin embargo, combinadas hábilmente, dan lugar a un número impensable de posibilidades. Dentro de las técnicas de aprendizaje automático, suelen distinguirse tres tipos de tareas: el aprendizaje supervisado –aquel en el que se ‘entrena’ a la máquina proporcionándole cierto número de datos, junto con la conclusión que la máquina debe extraer al respecto–; el aprendizaje no supervisado –que permite a las máquinas hacer cosas como clasificar los datos en grupos similares o saber cuáles de ellos son importantes y cuáles no–; y el aprendizaje por refuerzo –aquel en el que se proporcionan a la máquina ciertos incentivos al aprendizaje, de la misma forma que damos un azucarillo a los caballos como premio–.
De entre todos ellos, el que más nos interesa ahora es el aprendizaje supervisado y, particularmente, la regresión. En estadística, se denomina regresión al proceso mediante el cual se determinan relaciones entre distintas variables. Pues bien, el proceso mediante el cual una inteligencia artificial establece una ley científica es ni más ni menos que una gran regresión, seguramente trufada con otras técnicas de aprendizaje no supervisado.
Entonces, si la regresión se conoce desde hace siglos, ¿por qué ahora hablamos de inteligencia artificial científica? Aunque la primera persona que pensó en la posibilidad de que ciertas máquinas llevaran a cabo razonamientos fue el mallorquín Ramón Llul, en 1315, la inteligencia artificial ha pasado por cierto número de lo que se conoce como inviernos de la inteligencia artificial, épocas en que los científicos en particular y el público en general cae en un pesimismo generalizado sobre su utilidad y, por tanto, sobre la conveniencia de financiar ese tipo de investigación. Del último invierno hemos salido en parte gracias a la popularización del ‘deep learning’ o aprendizaje profundo, algo que ya se conocía, pero que ha triunfado de una manera sin precedentes gracias al crecimiento exponencial de la capacidad de los ordenadores. El aprendizaje profundo es capaz de reconocer animales en fotografías, de entender el lenguaje natural o de pilotar aviones o automóviles. Esta potencia de cálculo también ha permitido al aprendizaje profundo establecer leyes científicas a partir de datos experimentales sobre la realidad que nos rodea.