Por: EFE
Red neural capaz de aprender a dominar videojuegos.
Científicos británicos han diseñado una red neuronal artificial capaz de aprender a dominar diversos videojuegos sin haber sido previamente programada para ello, según un estudio que publica hoy la revista Nature.
La compañía DeepMind, adquirida por Google en enero de 2014, ha combinado técnicas de aprendizaje informático ya conocidas con mecanismos inspirados en la biología para lograr que su “agente artificial” aprenda a jugar a 49 videojuegos clásicos del computador Atari 2600.
El sistema es capaz de descubrir el objetivo del juego y dominar sus controles sin contar con más información que las imágenes que aparecen en pantalla y la puntuación.
Gracias a sus mecanismos de adaptación y aprendizaje, la máquina actúa a un nivel comparable al de un humano profesional de los videojuegos.
Demis Hassabis, uno de los creadores, explicó en una rueda de prensa por vía telefónica que su red neuronal es un artefacto de naturaleza distinta a otras máquinas como el conocido Deep Blue, el ordenador que en 1996 derrotó por primera vez a un campeón del mundo de ajedrez —en aquel momento el ruso Gary Kaspárov—.
“La diferencia es que las habilidades de Deep Blue estaban programadas de antemano. Un equipo de ingenieros y maestros del ajedrez volcaron todo su conocimiento en un algoritmo que se ejecutaba con éxito sin aprender nada”, relató Hassabis.
“Nuestro sistema, en cambio, empieza de cero, sin ninguna información. Solo cuenta con la experiencia perceptiva. Tiene que aprender él solo qué patrones seguir. La idea es que pueda adaptarse a situaciones inesperadas”, detalló.
El investigador explicó que los sistemas de redes neuronales artificiales son “más humanos” que otro tipo de programas de inteligencia artificial porque asimilan el mundo que los rodea y crean un modelo que les permite tomar decisiones.
En el caso de los videojuegos, el sistema aprende qué acciones son más recomendables según la puntuación que va sumando en una partida.
Con esa estrategia, es capaz de sobresalir en videojuegos de todo tipo —juegos de plataformas, de disparos, de boxeo y de carreras de coches—, lo que demuestra que “una única arquitectura puede desarrollar tácticas óptimas para una amplia variedad de entornos”, describió Hassabis.
“La idea es que el sistema se puede aplicar a cualquier toma de decisiones secuencial. No hemos programado nada específico para jugar a videojuegos de Atari, es un programa de aprendizaje general”, afirmó Koray Kavukcuoglu, miembro de DeepMind.
Tomado del diario digital, www.laprensa.com.ni, Managua, Nicaragua.
Sección: Tecnología.
Sábado 28 de Febrero del 2015.