El director de una organización sin fines de lucro sobre inteligencia artificial afirma que la "naturaleza cerrada" de la mayoría de las investigaciones sobre inteligencia artificial obstaculiza la innovación

Un año antes de que Elon Musk cofundara OpenAI en San Francisco, el cofundador de Microsoft, Paul Allen, ya había creado un laboratorio de investigación de inteligencia artificial sin fines de lucro en Seattle.
El Instituto Allen de Inteligencia Artificial (Ai2) tenía como objetivo promover la IA en beneficio de la humanidad. Más de una década después, Ai2 puede que no sea tan conocido como OpenAI, los creadores de ChatGPT, pero aún sigue trabajando en una IA de "alto impacto", como la imaginó Allen, quien falleció en 2018.
El último modelo de IA de Ai2, Tulu 3 405B, rivaliza con los de OpenAI y DeepSeek de China en varios puntos de referencia. A diferencia de OpenAI, Ai2 afirma estar desarrollando sistemas de IA "verdaderamente abiertos" para que otros los utilicen como base. Desde 2023, el director ejecutivo de Ai2, Ali Farhadi, dirige el instituto después de un período en Apple.
Dijo: "Nuestra misión es impulsar la innovación y los avances en IA para resolver algunos de los problemas más urgentes de la humanidad. La mayor amenaza para la innovación en IA es la naturaleza cerrada de la práctica. Hemos estado presionando con mucha fuerza hacia la apertura. Pensemos en el software de código abierto: la idea central es que yo debería poder entender lo que hiciste, modificarlo, bifurcarlo, usar parte de ello, la mitad o todo. Y una vez que construyo algo, lo publico, y tú deberías poder hacer lo mismo".
El debate en torno a la IA de código abierto es un tema candente en la actualidad. Para nosotros, código abierto significa tener una comprensión clara de tus acciones. Si bien los modelos de ponderaciones abiertas como los de Meta son beneficiosos porque las personas pueden simplemente tomar esas ponderaciones y proceder, no califican como código abierto.
El código abierto implica tener acceso a cada pieza del rompecabezas. Si tuviera que especular, algunos de los datos de entrenamiento de estos modelos podrían contener material cuestionable. Sin embargo, los datos de entrenamiento, que son la propiedad intelectual real, son probablemente la parte más valiosa. Muchos creen que tienen un valor significativo, y estoy de acuerdo.
Los datos desempeñan un papel crucial a la hora de mejorar el modelo y modificar su comportamiento. Es un proceso laborioso y desafiante. Muchas empresas invierten mucho en este ámbito y se muestran reacias a compartir sus hallazgos. A medida que la IA madura, creo que se está preparando para que se la tome en serio en ámbitos de problemas críticos como el descubrimiento científico.
Una gran parte de algunas disciplinas implica una búsqueda compleja de soluciones, ya sea una estructura genética, una estructura celular o configuraciones específicas de elementos. Muchos de estos problemas se pueden formular computacionalmente. Existe un límite a lo que se puede lograr simplemente descargando un modelo entrenado con datos de texto de Internet y ajustándolo. Nuestro objetivo es permitir que los científicos entrenen sus propios modelos.
Puedes encontrar esta historia en Mis marcadores o navegando hasta el ícono de usuario en la parte superior derecha.
Daily Mirror