¿Tendremos robots pensantes para 2030? ¿O es solo una exageración de las grandes tecnológicas?

En la actualidad, muchas personas utilizan chatbots de inteligencia artificial (IA) para todo, desde sugerencias de cenas hasta para combatir la soledad, pero ¿podría la humanidad estar a punto de crear máquinas que puedan pensar por sí mismas y, potencialmente, superar a sus creadores?
Algunas grandes empresas tecnológicas afirman que ese tipo de avance, conocido como inteligencia artificial general (IAG), está a solo unos años de distancia. Pero los escépticos dicen que no hay que creerse las exageraciones.
"Siempre que veas a alguien hablando de IAG, simplemente imagina al Hada de los Dientes o a Papá Noel", dijo Ed Zitron, presentador del podcast tecnológico Better Offline y creador del boletín " ¿Dónde está tu Ed?" .
"Todos estos son conceptos ficticios, incluida la IA general. La diferencia es que hay idiotas en los negocios que invierten miles de millones de dólares en ellos porque no tienen nada más en qué invertir su dinero", dijo a The Current .
Los expertos discrepan sobre los detalles de qué se considera IAG, pero generalmente se considera una inteligencia artificial igual o superior a la humana, con la capacidad de aprender y actuar de forma autónoma. Esta inteligencia podría integrarse en el cuerpo de un robot capaz de realizar multitud de tareas.
Demis Hassabis, director ejecutivo del laboratorio de inteligencia artificial DeepMind de Google, dijo recientemente que su empresa alcanzará la IA general en 2030.
"Mi cronograma ha sido bastante consistente desde el inicio de DeepMind en 2010, así que pensamos que era una misión de aproximadamente 20 años y sorprendentemente estamos en el camino correcto", dijo al New York Times en mayo .
Zitron no está convencido. Afirmó que Hassabis tiene un "incentivo directo" para promocionar el progreso de su empresa y señaló la incertidumbre sobre la rentabilidad de chatbots de IA como Gemini de Google o ChatGPT de OpenAI.
"Ninguna de estas empresas está ganando dinero con la IA generativa... así que necesitan un nuevo truco de magia para que la gente deje de preocuparse", dijo.
AGI 'siempre a 10 años de distancia'La experta en IA Melanie Mitchell dice que la gente ha estado haciendo predicciones sobre este tipo de IA inteligente desde la década de 1960, y esas predicciones siempre han sido erróneas.
"La IA general o su equivalente siempre está a 10 años de distancia, pero siempre lo ha estado y tal vez siempre lo estará", dijo Mitchell, profesor del Instituto Santa Fe en Nuevo México, especializado en inteligencia artificial, aprendizaje automático y ciencia cognitiva.
Dijo que no hay un acuerdo universal sobre lo que una IA funcional debería ser capaz de hacer, pero no debería confundirse con grandes modelos de lenguaje como ChatGPT o Claude, que son un tipo de IA generativa.
Los modelos de lenguaje grande (LLM, por sus siglas en inglés) que impulsan los programas de IA generativos han sido entrenados en "una enorme cantidad de lenguaje generado por humanos, ya sea de sitios web, libros u otros medios" y, como resultado, son "capaces de generar un lenguaje que suena muy humano", dijo a The Current .
Zitron dijo que esa distinción es importante porque resalta que “la IA generativa no es inteligencia, sino que recurre a un corpus de información” que le han proporcionado los humanos.
Él define la AGI como “una computadora consciente… algo que puede pensar y actuar por sí misma de manera completamente autónoma” y tiene la capacidad de aprender.
"No sabemos cómo funciona la consciencia humana", dijo. "¿Cómo demonios se supone que podemos hacer eso con las computadoras? Y la respuesta es que no lo sabemos".

A Mitchell le preocupa que, sin una definición ampliamente consensuada, exista el riesgo de que las grandes empresas tecnológicas "redefinan la IAG y la hagan realidad".
"Dirán: 'Bueno, lo que tenemos aquí es IAG. Y por lo tanto, hemos logrado IAG', sin que realmente tenga un significado más profundo", dijo.
La IAG podría ser una «carrera suicida»Hay personas fuera de la industria tecnológica que creen que la IA general podría estar a nuestro alcance.
"Si nuestro cerebro es una computadora biológica, entonces eso significa que es posible crear cosas que puedan pensar a nivel humano", dijo Max Tegmark, profesor del MIT y presidente del Future of Life Institute, una organización sin fines de lucro que tiene como objetivo mitigar los riesgos de las nuevas tecnologías.
"Y no existe ninguna ley de la física que diga que no se puede hacer mejor", afirmó.
Tegmark cree que hay una arrogancia o un orgullo excesivo al afirmar que la inteligencia artificial general no se puede lograr, de la misma forma que mucha gente alguna vez pensó que el vuelo humano era imposible.
Algunos inventores pioneros intentaron en vano crear máquinas que imitaran el rápido aleteo de las aves más pequeñas. Pero el éxito llegó con una mayor comprensión de las alas de las aves y la idea de una máquina que, en cambio, planeara.
"Resultó que era una forma mucho más fácil de construir máquinas voladoras", dijo Tegmark.
Hemos visto que ocurre lo mismo aquí ahora: los sistemas de IA de vanguardia actuales son mucho más simples que los cerebros. Encontramos una forma diferente de crear máquinas que puedan pensar.
Tegmark dice que no le sorprendería demasiado si "sucediera en dos a cinco años", pero eso no significa que necesariamente debamos crear robots que puedan pensar mejor que los humanos.
Describió a estas máquinas inteligentes como una nueva especie, una que fácilmente podría amenazar el lugar de la humanidad en la cadena alimentaria "porque es natural que la especie más inteligente tome el control".

"La carrera para construir superinteligencia es una carrera suicida, pero no necesitamos correrla", dijo.
Aún podemos construir una IA asombrosa que cure el cáncer y nos brinde todo tipo de herramientas maravillosas, sin necesidad de desarrollar superinteligencia.
cbc.ca