viernes 29 marzo 2024
InicioGeneralEl cerebro artificial de Google que aterra (y fascina) a ingenieros y...

El cerebro artificial de Google que aterra (y fascina) a ingenieros y científicos

A las pocas horas de comenzar la segunda partida, el surcoreano Lee Sedol, héroe nacional y campeón mundial del juego Go, se levantó de la silla desesperado. El programa informático al que se enfrentaba, AlphaGo, una inteligencia artificial creada por Google, había hecho un movimiento incomprensible. A primera vista no tenía sentido, Sedol no se lo esperaba. Pero fue un golpe magistral. Desencajado, necesitó 15 minutos para improvisar una respuesta. No sirvió de nada. Cuatro horas más tarde perdió la partida. La máquina volvería a ganarle en otras dos ocasiones. Fue histórico e inquietante a la vez, nunca antes un programa había ganado al campeón mundial de Go, y nunca lo había hecho mostrando una chispa de algo que define a los humanos: la creatividad.

«Yo lo llamaría… creatividad computacional», dice con media sonrisa Thore Graepel mientras recuerda lo ocurrido el pasado marzo con el famoso movimiento 37 (puedes ver aquí en vídeo cómo los comentaristas se quedaron sin palabras tras la jugada). Graepel, investigador científico de DeepMind, empresa británica adquirida por Google en el 2014 por 500 millones de dólares, es uno de los creadores de AlphaGo y experto mundial en ‘machine learning’, un campo de la inteligencia artificial. Si esta última crea programas inteligentes, el ‘machine learning’ va un paso más allá: desarrolla ordenadores capaces de aprender por sí mismos. Es decir, programas que imitan el funcionamiento del cerebro humano. «Estamos muy cerca de conseguirlo», asegura.

Hasta ahora la inteligencia artificial era una cuestión de simple potencia de cálculo. La famosa derrota de Gary Kasparov ante el Deep Blue de IBM en 1997 fue histórica, pero en realidad la tecnología detrás era bastante limitada. El ajedrez es pura lógica, puro cálculo matemático. Basta emplear un ordenador como Deep Blue, capaz de analizar más de 200 millones de movimientos por segundo, y programarlo para que se convierta en un fenómeno imbatible del ajedrez. Pero solo sabrá hacer eso, nada más. Perdería a la primera jugando con un niño de cuatro años a resolver un problema de lógica elemental.

«Un niño sabe, por ejemplo, que los coches no vuelan. Nadie se lo ha dicho ni se lo ha enseñado. Lo ha aprendido de forma indirecta en el día a día, viéndolo en la calle, estando en contacto con el entorno a través de sus sentidos. Eso lo que llamamos «percepción» y es lo que estamos desarrollando ahora en ‘software’ mediante la creación de redes neuronales artificiales y el ‘deep learning'», explica a Teknautas Emmanuel Mogenet, responsable de un nuevo centro de investigación que Google acaba de inaugurar en Zúrich destinado solo a esta rama de la ingeniería.

El buscador no es el único que apuesta por esta tecnología. Cientos de empresas, desde Facebook, IBM, Apple o Microsoft, hasta ‘startup’s pasando por centros académicos como el MIT, llevan años trabajando en crear diferentes niveles de inteligencia artificial, pero Google cuenta con una ventaja sobre todos los demás: tiene infinitas cantidades de datos (miles de millones de búsquedas, emails, datos geográficos de mapas, fotos…) y una infraestructura tecnológica capaz de procesar esa información al instante. Y es gracias a ese mayor poder de computación que se están comenzando a crear redes neuronales artificiales complejas como AlphaGo, capaz de derrotar a los humanos en lo que sabemos hacer mejor.

«En el cerebro humano hay miles de millones de neuronas individuales. Por sí solas no son muy listas, es el conjunto de neuronas trabajando entre sí lo que las hace tan poderosas. Las redes neuronales artificiales tratan de imitar esa estructura», explica Greg Corrado, neurocientífico e investigador de Google que lidera desde Mountain View, California, buena parte del trabajo del buscador en este área.

¿Cómo funciona una red neuronal artificial? Al igual que cada parte del cerebro humano se encarga de diferentes tareas (procesado del habla, colores, olores, formas…), una red neuronal artificial se compone de diferentes capas de cálculo. Por un lado entra la información, el ‘input’, por ejemplo, la foto de un gato. ¿Puede un ordenador por sí solo saber si se trata de la foto de un gato, un lince, un perro u otro animal? Mediante funciones matemáticas predefinidas, el sistema comienza a analizar la imagen en diferentes capas: formas, colores, trazos, comparativa con otras fotos de animales… Así hasta 20 o 30 capas diferentes de análisis hasta llegar a una conclusión. Sí, es la foto de un gato.

Una manera de entender cómo funcionan estas redes neuronales artificiales es con el experimento que puso en marcha Google con Deep Dream. Consistía en introducir una foto aleatoria en el sistema y pedirle identificar qué contiene, sin darle ninguna instrucción adicional. Cada píxel de la foto es analizado y reintroducido de nuevo en la red neuronal en un bucle infinito, por lo que al final se obtienen imágenes «artísticas» que más bien parecen salidas de un experimento con LSD. Es, en esencia, la representación del «pensamiento» de una red neuronal computacional.

 

Fuente: El Confidencial

RELATED ARTICLES