El mes de febrero, OpenAI, una compañía de investigación de inteligencia artificial sin fines de lucro que tiene como objetivo promover y desarrollar inteligencia artificial amigable, anunció que habían desarrollado una IA (inteligencia artificial) tan “peligrosa” que habían decidido no publicarla, impidiendo así que otros desarrolladores pudieran usarla y estudiarla.

La llamarón GPT-2 y, y sus creadores pensaron en el peligro de que pudiera ser usada para la generación automática y masiva de fake news.

X

Sin embargo, un estudiante de informática residente en Alemania llamado Connor Leahy anunció hace unos días que había logrado replicar la versión completa de GPT-2 y que, si nadie le convencía de lo contrario, el próximo día 1 de julio la hará pública para que cualquiera pueda acceder a ella.

La clave de este logro reside en que Leahy tuvo acceso a un programa de Google llamado Tensorflow Research Cloud, y que ofrece mayor capacidad de cálculo que la usada por OpenAI para crear GPT-2. Usó una serie de parámetros que ha colgado en su repositorio de GitHub, y tuvo al TPU trabajando aproximadamente una semana.

“No estoy trabajando bajo la dirección de ningún gobierno, universidad o gran corporación (aunque creo que le debo mi primogénito a Google o algo así, dada la cantidad de apoyo gratuito que me han brindado): sólo soy un estudiante de pregrado curioso que pasa su tiempo libre experimentando con IA en lugar de salir y hablar con chicas”.

En su blog, además de explicar los detalles técnicos de su logro, afirma que también quiere “aprovechar la oportunidad de que tengo muchos ojos sobre mí para debatir mi punto de vista sobre GPT-2 y lo que significa para la IA”.

Para Leahy, el peligro de GPT-2 no es su capacidad de producir texto, pues esto sigue siendo algo que los humanos hacemos mejor, sino su capacidad de “reducir el costo de la generación de texto convincente”.

“Hipotéticamente, GPT-2 podría representar una especie de momento decisivo en el que se reduce tanto dicho coste que da pie a la aparición de algún tipo de nueva actividad maliciosa”.

Leahy deja claro que se toma muy en serio el uso seguro de la IA (de hecho, reconoce que es “la cuestión más importante de nuestro tiempo”), pero también tiene claro que las noticias falsas pueden ser un problema muy real, pero no son un problema “nuevo”.

Él menciona que los actuales esfuerzos para detectar fake news son peligrosos, porque se limitan a mover nuestra confianza de unas máquinas a otras, sin obligarnos a asumir el coste de la búsqueda de información veraz y confiable.

Estoy esperando al 1 de julio porque quiero darle tiempo a la gente para convencerme de que me he perdido algo y me estoy equivocando.

Fuente: Xataca


DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here