El libro de Minsky y Papert |
Con pocos días de diferencia, el mes de Enero nos ha traído dos noticias relacionadas con la Inteligencia Artificial que devuelven a la actualidad esta apasionante disciplina científica. La primera, más luctuosa, la del fallecimiento el 24 de Enero de Marvin Minsky (1927-2016) uno de sus pioneros. Fue cofundador, junto a John McCarthy, del mítico Computer Science and Artificial Intelligence Laboratory del MIT en Boston. Autoridad reconocida en numerosos campos, desde la descripción gráfica simbólica , la semántica computacional, el reconocimiento de patrones, la representación del conocimiento, etc...
En 1951 construyó el SNARC (Stochastic Neural Analog Reinforcement Calculator), primer simulador de redes neuronales, concepto que durante décadas constituyó la base de investigación de esta novedosa disciplina. En 1969, junto con Seymour Papert, publicó el libro "Perceptrons - an Introduction to Computational Geometry", cuyas copias (obviamente piratas) circulaban por la Facultad de Matemáticas de la Complutense (y supongo que por otras) a finales de los años 70. En 2013, Minsky recibió el Premio Fundación BBVA Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación.
La segunda noticia ha sido la publicación, el 28 de Enero, en la revista Nature del artículo "Mastering the game of Go with deep neural networks and tree search" que viene a constatar la superación de un hito más en el avance de la inteligencia artificial: El algoritmo AlphaGo ha derrotado por 5-0 al campeón europeo de Go, Fan Hui. Pero, antes de entrar en los vericuetos de este complicadísimo juego oriental y en lo que supone que una máquina gane a un humano en esta contienda, volvamos a los 70.
Allí, en el Centro de Cálculo de la Complutense, dirigido por el profesor García Camarero (Don Ernesto), mientras componíamos nuestros programas en FORTRAN IV, PL/1 o el más novedoso y científico APL, comentábamos cómo algún magnate americano había establecido un premio de 1 millón de dólares (eran muuuuuchos millones de pesetas) al primero que desarrollara un algoritmo del juego del ajedrez que, soportado en la potencia de cálculo de un ordenador, fuera capaz de batir a un gran maestro internacional en un torneo con todas las reglas oficiales. Espoleados por la utopía de conseguir el premio, discutíamos de enfoques y de posibilidades, de árboles de ramificación de jugadas, aperturas y gambitos, criterios de decisión, fórmulas probabilísticas para comparación y valoración de jugadas,...
Pasaron muchos años hasta que, en mayo de 1997, Deep Blue, el programa desarrollado por IBM fue capaz de batir a Garri Kaspárov por 3,5 a 2,5 (2 partidas ganadas, una perdida y tres tablas) en el famoso torneo celebrado en el Equitable Center de Nueva York. Unos años antes, el programa Chinook fue campeón mundial del juego de damas (y en 2007 sus creadores anunciaron que, con sus posteriores desarrollos, habían "resuelto" el juego, es decir, que el mejor jugador del mundo, en el mejor de sus días, sólo podía aspirar a empatar con Chinook). Más recientemente, en 2011, como hemos señalado en este blog (ver entrada "Pregúntale a Watson") , este programa, también desarrollado por IBM, ganó con maestría a los mayores expertos en el juego de Jeopardy, abriendo las puertas a la nueva era de la computación cognitiva.
Pero faltaba el Go. Este juego de origen chino, con más de 2.500 años de antigüedad, se considera el rey de la combinatoria. Al jugarse en un tablero de 19x19 puntos donde colocar fichas, el número de diferentes juegos posibles está calculado en 10 elevado a 761, frente a los "sólo" 10 elevado a 120 del ajedrez. El objetivo del juego es, poniendo cada jugador 1 ficha cada vez, "rodear" más territorio que el adversario. El hecho de que el número de jugadas posibles sea tan elevado, es lo que descartaba, en principio, la supercomputación como enfoque a su resolución automática. Los buenos jugadores de Go no "calculan" sino que "intuyen", una forma de decir que no eligen entre todas las jugadas posibles, sino que escogen, entre unas pocas, aquellas que les parecen más razonables tras visualizar la situación.
AlphaGo ha sido desarrollado por Google DeepMind (www.deepmind.com). Merece la pena visitar la página web y algunos de los vídeos que contiene; su misión: "Solve Intelligence". En 2014 Google compró la empresa DeepMind por unos $625 millones, en dura competencia con Facebook, ambos gigantes empeñados en añadir a su portfolio un referente en el campo de la Inteligencia Artificial. La empresa fue fundada en 2010 por Demis Hassabis (inglés de origen greco-chipriota y singapurense), Shane Legg (neozelandés) y Mustafá Suleyman (musulmán británico). Curiosa combinación. Hassabis fue un "niño prodigio" del ajedrez, que alcanzó el nivel de maestro en 1989, a los 13 años.
En lenguaje técnico, AlphaGo "combina la búsqueda en árboles usando el método de Monte-Carlo con el uso de redes neuronales profundas que han sido entrenadas por medio de aprendizaje supervisado, a partir de juegos llevados a cabo por humanos expertos, y reforzado mediante aprendizaje usando auto-juegos". No es un enfoque radicalmente nuevo (curioseando por la red he encontrado un Proyecto Fin de Carrera presentado en 2012 en la Escuela de Ingeniería y Arquitectura de la Universidad de Zaragoza por Beatriz Nasarre titulado "Método de Monte-Carlo Tree Search (MCTS) para resolver problemas de alta complejidad: jugador virtual para el juego del Go"). Pero parece que DeepMind ha encontrado la tecla que faltaba para elevar la destreza del algoritmo al nivel de gran experto.
El mes que viene, AlphaGo se enfrentará a su mayor reto: un juego de 5 partidas en Seúl contra el legendario Lee Sedol, el mejor jugador del mundo de Go en la última década. ¿Y por qué es importante haber alcanzado este hito para la Inteligencia Artificial? Pues porque esta forma de abordar procesos muy complicados de análisis y toma de decisiones puede abrir nuevas vías de acometer complejísimos retos en áreas tan diversas como los modelos climáticos, el diagnóstico médico, la simulación de dinámicas moleculares, la modelización del funcionamiento del cerebro humano, etc...
Algo se está moviendo, y a gran nivel, en el campo de la AI cuando en Diciembre pasado, Elon Musk (asiduo protagonista de este blog) y otros inversores, anunciaron la creación de la empresa "sin ánimo de lucro" OpenAI, (www.openai.com) comprometiendo una aportación de hasta $1.000 millones con el objetivo de “advance digital intelligence in the way that is most likely to benefit humanity as a whole, unconstrained by a need to generate financial return” (obsérvese el matiz de que se ha sustituido "artificial" por "digital").
Dicen que el siguiente "milestone" en el área de juegos complejos son los de información incompleta, donde los jugadores no tienen toda la información a la vista, como es el Póker. ¿Y el Mus? ¿Aprenderá algún día un ordenador a pasar señas?.
Tablero de Go: 19x19 intersecciones |
AlphaGo ha sido desarrollado por Google DeepMind (www.deepmind.com). Merece la pena visitar la página web y algunos de los vídeos que contiene; su misión: "Solve Intelligence". En 2014 Google compró la empresa DeepMind por unos $625 millones, en dura competencia con Facebook, ambos gigantes empeñados en añadir a su portfolio un referente en el campo de la Inteligencia Artificial. La empresa fue fundada en 2010 por Demis Hassabis (inglés de origen greco-chipriota y singapurense), Shane Legg (neozelandés) y Mustafá Suleyman (musulmán británico). Curiosa combinación. Hassabis fue un "niño prodigio" del ajedrez, que alcanzó el nivel de maestro en 1989, a los 13 años.
En lenguaje técnico, AlphaGo "combina la búsqueda en árboles usando el método de Monte-Carlo con el uso de redes neuronales profundas que han sido entrenadas por medio de aprendizaje supervisado, a partir de juegos llevados a cabo por humanos expertos, y reforzado mediante aprendizaje usando auto-juegos". No es un enfoque radicalmente nuevo (curioseando por la red he encontrado un Proyecto Fin de Carrera presentado en 2012 en la Escuela de Ingeniería y Arquitectura de la Universidad de Zaragoza por Beatriz Nasarre titulado "Método de Monte-Carlo Tree Search (MCTS) para resolver problemas de alta complejidad: jugador virtual para el juego del Go"). Pero parece que DeepMind ha encontrado la tecla que faltaba para elevar la destreza del algoritmo al nivel de gran experto.
El mes que viene, AlphaGo se enfrentará a su mayor reto: un juego de 5 partidas en Seúl contra el legendario Lee Sedol, el mejor jugador del mundo de Go en la última década. ¿Y por qué es importante haber alcanzado este hito para la Inteligencia Artificial? Pues porque esta forma de abordar procesos muy complicados de análisis y toma de decisiones puede abrir nuevas vías de acometer complejísimos retos en áreas tan diversas como los modelos climáticos, el diagnóstico médico, la simulación de dinámicas moleculares, la modelización del funcionamiento del cerebro humano, etc...
Algo se está moviendo, y a gran nivel, en el campo de la AI cuando en Diciembre pasado, Elon Musk (asiduo protagonista de este blog) y otros inversores, anunciaron la creación de la empresa "sin ánimo de lucro" OpenAI, (www.openai.com) comprometiendo una aportación de hasta $1.000 millones con el objetivo de “advance digital intelligence in the way that is most likely to benefit humanity as a whole, unconstrained by a need to generate financial return” (obsérvese el matiz de que se ha sustituido "artificial" por "digital").
Dicen que el siguiente "milestone" en el área de juegos complejos son los de información incompleta, donde los jugadores no tienen toda la información a la vista, como es el Póker. ¿Y el Mus? ¿Aprenderá algún día un ordenador a pasar señas?.
************************************
La pista y algunos datos sobre el algoritmo AlphaGo provienen del muy documentado artículo de Javier Salas, titulado "La Inteligencia Artificial conquista el último tablero de los humanos", publicado en El País Digital el 28 de Enero pasado.
No hay comentarios:
Publicar un comentario