
El empresario multimillonario Elon Musk y un grupo de expertos en inteligencia artificial y ejecutivos del sector pidieron una pausa de seis meses en el entrenamiento de sistemas más potentes que el recién lanzado modelo GPT-4 de OpenAI, en una carta abierta en la que aluden a posibles riesgos para la sociedad y la humanidad. A principios de este mes, OpenAI, respaldada por Microsoft, presentó la cuarta versión de su programa de IA GPT (Generative Pre-trained Transformer), que ha cautivado a los usuarios con conversaciones similares a las humanas, la composición de canciones y resumiéndoles documentos extensos.
"Los potentes sistemas de IA sólo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables", afirma la carta publicada por el Future of Life Institute.
La organización sin ánimo de lucro está financiada principalmente por la Musk Foundation, así como por el grupo londinense Founders Pledge y la Silicon Valley Community Foundation, según el registro de transparencia de la Unión Europea.
OpenAI no respondió de inmediato a una solicitud de comentarios sobre la carta abierta, que instó a una pausa en el desarrollo avanzado de IA hasta que haya protocolos de seguridad compartidos de expertos independientes y desarrolladores que trabajen con los responsables políticos en la gobernanza.
-"¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? (…) -¿Debemos desarrollar mentes no humanas que con el tiempo podrían superarnos en número, inteligencia, obsolescencia y reemplazo?", se preguntó la carta, afirmando que "tales decisiones no deben delegarse en líderes tecnológicos no elegidos".
La carta fue firmada por más de 1.000 personas, entre ellas Musk. Sam Altman, presidente ejecutivo de OpenAI, no estaba entre ellos, ni tampoco Sundar Pichai y Satya Nadella, presidente ejecutivos de Alphabet y Microsoft.
Entre los cofirmantes figuran Emad Mostaque, presidente de Stability AI, investigadores de DeepMind -de propiedad de Alphabet- y los expertos Yoshua Bengio, a menudo considerado uno de los "padrinos de la IA", y Stuart Russell, pionero de la investigación en el campo.
La preocupación coincide con la atención de los legisladores estadounidenses sobre ChatGPT por su posible impacto en la seguridad nacional y la educación. Europol, la policía de la UE, advirtió en las últimas horas del posible uso indebido del sistema en intentos de "phishing", desinformación y ciberdelincuencia.
Por su parte, el Gobierno británico presentó propuestas para establecer un marco normativo "adaptable" en torno a la IA.
CARRERA POR LA INTELIGENCIA ARTIFICIAL
"La carta no es perfecta, pero la intención es la correcta: tenemos que frenar hasta que entendamos mejor las ramificaciones", dijo Gary Marcus, un profesor emérito de la Universidad de Nueva York que firmó la carta.
"Pueden causar graves daños (…) los grandes actores son cada vez más reservados sobre lo que hacen, lo que dificulta que la sociedad se defienda contra cualquier daño que pueda materializarse", añadió.
Desde su lanzamiento el año pasado, ChatGPT de OpenAI, respaldada por Microsoft, ha llevado a sus competidores a acelerar el desarrollo de grandes modelos lingüísticos similares y a las empresas a integrar modelos generativos de IA en sus productos.
Los inversores, recelosos de confiar en una sola empresa, están acogiendo a los competidores de OpenAI. Microsoft no quiso hacer comentarios sobre la carta y Alphabet no respondió a llamadas y correos electrónicos en busca de un comentario.
PROBABILIDADES DE EXTINCIÓN
En 2022, más de 700 altos académicos e investigadores que están detrás de las empresas líderes en inteligencia artificial (IA) respondieron a una encuesta sobre los futuros riesgos que esta plantea. La mitad de los entrevistados dijo que había un 10% o más de probabilidades de que los humanos se extinguieran -o de que sufran un desempoderamiento terminal y permanente- a causa de los sistemas de IA del futuro. O sea que las empresas tecnológicas que están desarrollando "modelos de lenguaje grande" (MLG), están embarcadas en una carrera para subir a toda la humanidad a ese avión.
El futuro de la humanidad
A la mente humana le cuesta comprender las nuevas capacidades de GPT-4 y otras herramientas similares, y más todavía asimilar la velocidad exponencial con la que estas herramientas acrecientan sus propias habilidades. Pero la mayoría de las habilidades clave se reducen a una sola: la capacidad de generar y manipular lenguaje, ya sean palabras, sonidos o imágenes.
En el principio era la palabra. El lenguaje es el sistema operativo de la cultura humana. Del lenguaje nacen el mito y la ley, los dioses y el dinero, el arte y la ciencia, las amistades y las alianzas, las naciones y el código informático. O sea que ahora que domina los modelos de lenguaje, la IA tiene la capacidad de hackear y manipular el sistema operativo de la civilización.
Debido a la importancia de este tema que afecta el futuro de la humanidad, este diario publicó en los últimos días detalles sobre esta situación en su columna editorial y Enfoque. Debido al interés despertado en los lectores, la información sobre IA tendrá un seguimiento periodístico con la seriedad que se requiere.
Por Jyoti Narayan y Martin Coulter
Agencia Reuters
