*El Premio Nobel de Física 2024 ha sido otorgado a John J. Hopfield y Geoffrey E. Hinton. Desarrollaron métodos que son la base del aprendizaje automático (machine learning). Sus descubrimientos e invenciones permiten que las computadoras aprendan de la experiencia, una piedra angular en la inteligencia artificial (IA).
Este año, John Hopfield y Geoffrey Hinton ganaron el Premio Nobel de Física por sentar las bases de las redes neuronales de la Inteligencia Artificial (IA), explicó Huziel Sauceda, investigador del Instituto de Física de la UNAM.
John Hopfield creó las redes que ahora llevan su nombre, y utilizó la física estadística para demostrar que un algoritmo de este tipo podía memorizar información. Sin embargo, entrenar estos modelos resultaba muy complicado.
En los años 80, Geoffrey Hinton, junto con otros investigadores como Joshua Bengio, Yann LeCun, y Jürgen Schmidhuber desarrollaron una versión moderna más simple y eficientes.
Inventó el método moderno de entrenamiento de redes neuronales, conocido como backpropagation, que permitió superar las limitaciones de los modelos anteriores. Esta tecnología evolucionó en muchos modelos especializados dentro de los que se encuentran los transformes, lo que es la base del ChatGPT, explicó el académico universitario.
Estas contribuciones demostraron que las redes neuronales podían memorizar y aprender patrones ocultos en los datos, añadió el académico universitario.
Arquitectura de red neuronal
Los primeros intentos de neuronas artificiales se presentaron en la década de los 40, inspirada en el cerebro humano, donde las neuronas están unidas por interconexiones de alta complejidad.
A finales de los 50, se creó por primera vez una versión para programar en computadoras analógicas, aunque esta solo manejaba una neurona. A pesar de estos avances iniciales, modelos como el perceptrón de Frank Rosenblatt, propuesto en 1958, no pudieron resolver muchos problemas, lo que llevó al primer “invierno de la IA”.
Sin embargo, en los 80, los modelos mejoraron con más neuronas y mejores algoritmos, como el backpropagation de Hinton.
Cuando se conectan muchas neuronas de una forma particular, se llega a la tecnología de Hinton y Hopfield. Pero si se conectan de otra manera, se crea otro tipo de arquitectura especializada.
La conexión entre neuronas se conoce como arquitectura de red neuronal y permite resolver problemas específicos. Por ejemplo, para clasificar imágenes se usa una arquitectura llamada redes convolucionales, especializada en este tipo de análisis.
Aunque estas arquitecturas pueden servir para otras tareas, son particularmente buenas en sus áreas de enfoque, añadió el especialista en el tema.
Un ejemplo es el uso de redes neuronales para analizar series de tiempo, como en la predicción del clima. Otro tipo de conexión, como los transformers, se usa para reconocer una misma palabra en diferentes contextos y asignarle significado según el entorno.
Por ejemplo, “el banco de peces en el océano” y “el banco en la calle tal está libre”. Esta arquitectura, creada en 2017, permitió crear modelos que analizan las frases de manera global y muy eficiente.
¿Ciencia ficción o realidad?
Gracias a la ciencia ficción, muchas personas se preguntan: ¿qué tan cerca estamos de crear una IA que tome el control del mundo? Huziel Sauceda explicó que la humanidad está muy lejos de desarrollar una tecnología todopoderosa.
Por ejemplo, una computadora es un procesador que recibe órdenes a través de dispositivos como el mouse. Para hacer algo, necesita un input (una orden), ya sea mover el mouse o teclear algo, pero si se deja la máquina sin tocar, no hará nada.
Esto es diferente en las personas, cuyo cerebro permanece activo las 24 horas, pensando en múltiples temas. En cambio, con una máquina interactuamos y, al dejarla, queda inactiva.
Sin embargo, se han hecho grandes avances en ciertos modelos, donde se han especializado profundamente. Algo importante es que “no entendemos completamente lo que estamos haciendo; sabemos crear modelos y entrenarlos para que aprendan, pero no sabemos por qué funcionan”. Desde 2015, el entendimiento de cómo opera la IA ha quedado rezagado, ya que muchos modelos se han vuelto tan complejos que sobrepasan nuestra capacidad de comprender qué ocurre dentro de ellos.
Una controversia
Otorgar el Premio Nobel de Física por las bases de la IA podría generar controversia, pues pudiera entenderse como un reconocimiento a una investigación en el área computacional, señaló el investigador.
Ya existe un galardón equivalente en ciencias computacionales, el Premio Turing, otorgado a contribuciones en computación e inteligencia artificial. De hecho, en 2018 este reconocimiento fue otorgado a Geoffrey Hinton junto con Yoshua Bengio y Yann LeCun.
Sin embargo, Huziel Sauceda opina que Hopfield y Hinton merecen un reconocimiento más amplio, como el Premio Nobel de Física, ya que sus trabajos se fundamentan plenamente en la física estadística.
Ambos tomaron ideas de esta rama para demostrar que un sistema estadístico, como los espines en sistemas magnéticos, podía almacenar información. Esta es una de las razones clave que justifican la decisión del comité Nobel, pues los modelos de redes neuronales se basan en estos fundamentos físicos.
DGCS UNAM