De Premio Princesa de Asturias al Nobel: Geoffrey Hinton revoluciona la inteligencia artificial

Junto con Yann LeCun y Yoshua Bengio es considerado uno de los padres de una técnica esencial que se basa en el uso de redes neuronales para el reconocimiento de voz, la visión por ordenador y el procesamiento del lenguaje natural

Geoffrey Hinton, Yann LeCun y Yoshua Bengio son considerados los padres de una técnica esencial de la inteligencia artificial

El científico Geoffrey Hinton ha sido galardonado este martes con el Premio Nobel de Física, después de que su trayectoria fuera reconocida, junto a Yann LeCun, Yoshua Bengio y Demis Hassabis, con el Premio Princesa de Asturias de Investigación Científica y Técnica el 15 de junio de 2022.

El jurado del Premio Princesa de Asturias acordó concederles el galardón, tal y como señala el acta, por «sus contribuciones al avance de la Inteligencia Artificial y a su integración plena en la sociedad. Sus aportaciones al desarrollo del aprendizaje profundo (Deep Learning) suponen un gran avance en técnicas tan diversas como el reconocimiento de voz, el procesamiento del lenguaje natural, la percepción de objetos, la traducción automática, la optimización de estrategias, el análisis de la estructura de las proteínas, el diagnóstico médico y muchas otras. Su impacto actual y futuro en el progreso de la sociedad puede ser calificado de extraordinario».

Revolucionarios

Geoffrey Hinton, Yann LeCun y Yoshua Bengio son considerados los padres de una técnica esencial de la inteligencia artificial, el deep learning o aprendizaje profundo, el cual se basa en el uso de redes neuronales para el reconocimiento de voz, la visión por ordenador y el procesamiento del lenguaje natural, y ha logrado avances en campos tan diversos como la percepción de objetos y la traducción automática. Estas redes neuronales pretenden imitar el funcionamiento del cerebro humano, utilizando algoritmos que convierten el proceso biológico del aprendizaje en secuencias matemáticas.

Se trata de que la máquina aprenda de su propia experiencia. En 1986, Hinton inventó los algoritmos de retropropagación, fundamentales para el entrenamiento de redes neuronales. Con ellos, en 2012 consiguió crear una red neuronal convolucional llamada AlexNet, compuesta por 650.000 neuronas y entrenada con 1,2 millones de imágenes, que registró tan solo un 26 % de errores en el reconocimiento de objetos y redujo a la mitad el porcentaje de sistemas anteriores.

Ha aportado otras contribuciones a las redes neuronales artificiales y su entrenamiento, como la cocreación de la máquina de Boltzmann, la máquina de Helmholtz y el llamado producto de expertos. En 2021 publicó en la plataforma de preprints arXiv un documento en el que presentó GLOM, un innovador proyecto, aún teórico, que supone un nuevo modelo vectorial para procesar y representar la información visual en una red neuronal, que aún está en fase de desarrollo.

Vídeo del día

Los incendios en Bolivia arrasan 10 millones de
hectáreas en su peor temporada de fuego