Giambattista Parascandolo, el matemático italiano de OpenAI que enseña a las máquinas a razonar

A veces, para cambiar el mundo, sólo hace falta pararse y pensar. Eso es lo que hacen los nuevos modelos de IA desarrollados por OpenAI. El último se llama o3 y es un modelo de razonamiento. En comparación con ChatGPT-4, no da respuestas inmediatas: lleva tiempo. Reflexiona, se equivoca, se corrige, mejora. Y la buena noticia es que quien le enseña a razonar es un joven investigador italiano. Criado hasta los cinco años con el método Montessori, aprendió los fundamentos que ahora aplica a los modelos de inteligencia artificial.
Es Giambattista Parascandolo, 33 años, matemático, licenciado por Tor Vergata, máster en Finlandia, doctorado en aprendizaje automático por el Instituto Max Planck de Tübingen y en la ETH de Zúrich. Fue el primer italiano en unirse a OpenAI, hace cuatro años, cuando la empresa todavía era una pequeña startup de investigación de 150 personas. Hoy en día existen casi 2.000 y se encuentra entre las empresas privadas más capitalizadas de la historia a nivel global.
Parascandolo lidera un equipo que trabaja en Inteligencia Artificial General y modelos de razonamiento que se han calificado como revolucionarios. Modelos diseñados no para dar la primera respuesta posible, sino para detenerse y pensar. «Dante tardó quince años en escribir la Divina Comedia . Si hubiera tenido un mes de plazo, el mismo trabajo no habría salido. ¿Qué hizo en esos años? Pensó, escribió borradores, los corrigió, volvió a pensar, volvió sobre sus pasos. Ahora bien, estos modelos funcionan así: cuanto más piensan, mejores son sus respuestas. Y sus pensamientos pueden ser leídos. Simplemente pase el ratón sobre él. Aparecen y desaparecen. Dicen: “Espera, esto se puede decir mejor”. “Déjame comprobar ese cálculo.” “El usuario pregunta que… Necesito asegurarme de que todo tenga sentido”. Al leerlos, te das cuenta de que son sorprendentemente similares a los pensamientos de un ser humano”.
Un científico, Parascandolo, desarrolló la base técnica de estos modelos para aprender a razonar alrededor del mundo.
Romano, hijo de un periodista de la Rai, de Renato Parascandolo, ex director de Rai Educacional, y de una directora de documentales culturales, Giambattista creció con el método Montessori. De mis padres aprendí el valor del aprendizaje y la exploración. En la guardería Montessori recibí una educación basada en la práctica, la libertad y la creatividad en un entorno estructurado. Combiné ambos métodos. Hoy hacemos lo mismo con las máquinas: no les enseñamos a razonar, sino que creamos el entorno para que puedan hacerlo por sí mismas.
Escucharlo hablar es una maravilla. A menudo, Giambattista es enviado a explicar al gobernador de California o a los senadores qué hacen en OpenAI. Conozca las delegaciones italianas que viajan a Silicon Valley. Cuéntenos sobre el potencial de estas herramientas y qué nos depara el futuro. Contamos con todos los ingredientes para seguir mejorando estos sistemas. Soy optimista y creo que será un progreso continuo. Ha sido una verdadera aventura y lo sigue siendo, pero la vivo con un gran sentido de responsabilidad.
Parascandolo se interesó por el funcionamiento de la mente desde que era un niño. Siempre me hice las preguntas clásicas de quién soy, qué quiero, por qué… Pero no buscaba respuestas filosóficas. Buscaba respuestas pragmáticas. Siempre quise trabajar en algo relacionado con la comprensión de la mente. Pero no sabía qué. Comenzó a leer libros del neurólogo y escritor Oliver Sacks y revistas de neurociencia: “Buscaba todas las formas de abordar este mundo sin encontrarlas nunca”. Bachillerato clásico (“La estructura de los estudios me aburría profundamente”). Primero se matriculó en Ingeniería, luego abandonó los estudios y comenzó con Matemáticas. Erasmus en Finlandia le mostrará el camino.
Tenía 23 años. Las redes neuronales artificiales empezaban a funcionar gracias a una nueva generación de hardware, cada vez más potente. Comprendí que había algo interesante ahí: una forma de estudiar la mente sin renunciar a las matemáticas. En ese momento decidió orientar todos sus estudios hacia la inteligencia artificial pero aún no existía una formación estructurada sobre IA. Entonces comenzó a estudiar por su cuenta, tomando lecciones universitarias a través de Internet.
En aquel entonces, había muy pocos profesores que impartieran redes neuronales. Pero algunos habían subido sus cursos a internet. Estudia y aspira a entrar en DeepMind. Era la única empresa que trabajaba seriamente en IA. Pero para ser contratado se necesitaba un doctorado. Así que me doctoré en informática e IA, entre Suiza y Alemania. Durante el curso realizó dos prácticas: una en Palo Alto en Google X, en 2018, y otra en el propio DeepMind, en Londres, en 2019. Luego regresó para completar el doctorado, pero llegó la pandemia, las empresas paralizaron las contrataciones. Mientras tanto, solicita una cátedra en el MIT en Boston, para dirigir un programa de investigación sobre razonamiento en redes neuronales. Y aquí empieza a chocar con las perplejidades de la vieja escuela. Tuve unas 20 entrevistas. Había llegado al final, pero mi investigación no me convencía. Varios profesores me dijeron que esa línea de investigación no tenía sentido. Que las redes neuronales eran una moda pasajera, sin futuro. Fue una experiencia muy formativa, que luego vi que se generalizaba en el campo de la IA.
Se estaba produciendo un cambio de paradigma y no todos estaban preparados. Hubo una primera ola de inteligencia artificial con un enfoque completamente diferente, basado principalmente en reglas lógicas, es decir, más en código estándar. Pero existía una pequeña corriente que decía: no, lo correcto no es incorporar inteligencia al código, sino construir un cerebro artificial que aprenda por sí mismo. Sin embargo, durante mucho tiempo, las redes neuronales artificiales no funcionaron muy bien, sobre todo porque el hardware aún no estaba listo. No existían las GPU que usamos hoy para entrenar nuestros modelos. Luego empezaron a funcionar. Pero, mientras tanto, el campo se había transformado, se había construido sobre los cimientos del paradigma anterior. Y para muchos profesores fue difícil aceptar el nuevo paradigma.
Sin embargo, ese rechazo en el MIT no cierra el camino. De lo contrario. Pasa el Covid, las empresas vuelven a contratar, Giambattista termina su doctorado y llegan dos ofertas: una de la propia DeepMind, otra de lo que era solo una startup en un destartalado edificio de San Francisco: OpenAI. Decidí ir a ver qué estaba pasando en EE. UU.: acababan de publicar GPT-3. Cuando llegué, OpenAI tenía una pequeña oficina en San Francisco, pero la energía era increíble. Cuatro años después, la empresa se ha convertido en un gigante con 14 oficinas en todo el mundo y más de 500 millones de usuarios activos semanales.
¿Qué quieres decir con que trabajas en el razonamiento de modelos? No le decimos a la máquina qué hacer. Creamos entornos para que aprenda por sí sola. Esto se llama aprendizaje por refuerzo: en lugar de entrenar a la IA con datos clásicos, creamos un entorno lo más interesante posible para que aprenda por sí sola. Mediante ensayo y error. Es un poco como el método Montessori: se coloca al niño en un entorno estimulante, con juegos, ordenadores, Lego. Un entorno lleno de posibilidades, sin supervisión, y se le da libertad para explorar. Y aprende sin que ningún profesor le diga: «Tienes que aprender esto». Incluso con la inteligencia artificial funciona así: si se le proporciona un entorno bien diseñado, aprende por experiencia, comete errores, los corrige y mejora. Si le preguntas por Sam Altman te dirá que es un tipo muy tranquilo. “De vez en cuando charlamos en los pasillos”. Si le preguntas por la última adquisición de OpenAI, la startup “io” fundada por el ex diseñador responsable de los mayores éxitos de Apple, Jonathan Ive , con el objetivo de redefinir la relación entre los humanos y la inteligencia artificial, responde: "No sé nada fuera de mi área de investigación directa. Trabajo en razonamiento, no en dispositivos". Entonces sonríe. De los padres: “Son muy apasionados, usan ChatGPT todos los días”. Desde Italia: «Nuestra educación universitaria es demasiado teórica. Deberíamos aprender a programar desde pequeños: programar también es muy divertido. Nunca había oído hablar de programación hasta que llegué a la universidad y ya era demasiado tarde. Muchos de mis compañeros son de Polonia: desde pequeños tienen un gran interés por las matemáticas y la programación».
¿Qué has aprendido sobre IA que podríamos aprender nosotros? Risas. Permanece en silencio durante casi dos minutos. Él piensa en ello. Luego bromea. “El razonamiento es importante”. Y dice: «Los humanos cometemos muchos errores con frecuencia. A veces respondemos demasiado rápido, sin pensar lo suficiente. O olvidamos un signo al multiplicar una columna. Bueno, es interesante ver que la inteligencia artificial también comete errores casi idénticos. Errores humanos, muy diferentes a los que cometían las computadoras del pasado. Pero, como nosotros, las máquinas también mejoran con el esfuerzo. Lo bueno es que la cantidad de errores disminuye con la práctica, con la aplicación, con el trabajo meticuloso. Es algo que quizás deberíamos recordar: no valoramos lo suficiente lo mucho que se puede aprender simplemente por decidir hacerlo. Con la inteligencia artificial, el progreso se puede medir: se puede representar gráficamente, contar el número de errores por minuto, los problemas resueltos en una hora. Y poco a poco se descubre que el aprendizaje mejora. Y te lleva lejos». Volvamos a estudiar. Si no es ahora ¿cuándo?
La Repubblica