Un 'youtuber' crea la IA más cruel de la historia tras entrenarla con mensajes de 4chan

Odio IA

Getty Images

Para quienes no hayan tenido nunca ocasión de asomarse a ese abismo, basta decir que los foros de 4chan son lo más parecido que ofrece internet al salvaje oeste (descontando, claro, una deep web donde los propios foros de 4chan también juegan su papel).

Creado en 2003, en teoría se trataba tan solo de un inocente repositorio de imágenes creado en los albores de la generalización de la red de redes: uno entraba en uno de sus temas de debate y participaba aportando, si quería, alguna de los todavía no muy frecuentes archivos de imagen.

Como pasa tantas veces, con los años la idea se fue desvirtuando. Hoy, antes de acceder al foro que lleva por título 'Políticamente incorrecto' salta un mensaje que obliga a confirmar que se es mayor de edad y a liberar a 4chan de responsabilidades por las opiniones vertidas en su portal.

Este jueves, el foro lo abría un extraño debate sobre la aportación de la civilización egipcia a la humanidad.

—Eran un remanso de mierda que movió unas piedras y promovió el culto a la muerte.

—Y esos eran los antiguos egipcios. Los putos egipcios actuales tenéis más sangre negra y árabe.

—Egipto contribuyó mucho a la civilización.

— ¿Egipto? ¿Te refieres a aquella colonia romana?

Se trata de una de las conversaciones más elevadas de los últimos días. El siguiente mensaje abre su discurso con la siguiente pregunta: "¿Cuándo te diste cuenta de que todo lo que llaman ciencia es una mierda que no existe realmente?".

Ante este panorama, el youtuber e investigador experto en IA Yannic Kilcher se hizo una pregunta: ¿qué ocurriría si se entrenara a una de esas populares y parlanchinas IA desarrolladas en código abierto por Open AI con los mensajes vertidos durante los últimos 3 años en el foro políticamente incorrecto de 4chan?

Y a ello se puso. El resultado ha quedado prolijamente explicado por Kilcher en un video de 20 minutos colgado su canal de YouTube y que en apenas 5 días acumula más de 85.000 visualizaciones. Otro video colgado hace 3 semanas en el mismo canal tiene menos de 20.000.

Llamada GPT-4chan, la IA resultante de tan curioso entrenamiento es, a ojos del propio Kilcher, la peor IA jamás creada, al menos en lo que respecta a su calidad humana, si es que tal cosa se puede exigir a una máquina.

Los 20 delitos más peligrosos que va a crear la inteligencia artificial

Para sorpresa de casi nadie, resultó que GPT-4chan, la creación de Kilcher, era una joyita: tóxica, irrespetuosa, intransigente, propensa a creer en teorías de la conspiración y con extrañas y radicales ideas de casi todo, tan pronto culpaba a los judíos de todos los males del planeta como se limitaba a responder a quien la contradijera con el insulto más grueso que se le ocurría.

La IA era, en resumen, la quintaesencia de lo que ha sido el comentador medio del foro políticamente incorrecto de 4chan en los últimos años. 

Tenía, sin embargo, una particularidad: una capacidad infinitamente más alta de expandir su odio que el humano más rápido y con más tiempo libre que se pueda concebir.

Distribuida en 8 bots por el propio Kilcher, en apenas unos pocos días GPT-4chan distribuyó en este foro cerca de 30.000 mensajes, la inmensa mayoría de ellos manifiestamente desinformados u ofensivos para algún colectivo.

Conocido el experimento, la comunidad científica se ha apresurado a responder con otra pregunta: ¿de verdad hacían falta estas alforjas para este viaje? 

En otras palabras, ¿era necesario inundar el ya de por sí maltrecho foro políticamente incorrecto de 4chan de mensajes de odio para demostrar que la IA será lo que los humanos quieran que sea, algo que en realidad se sabe desde hace tiempo?

La polémica está servida.

La IA de Kilcher, entre la ciencia y la provocación

En declaraciones hechas a través de un mensaje directo de Twitter a Vice, Kilcher se defiende.

"Soy un youtuber y esto es una broma y un troleo desenfadado. Mis bots, en todo caso, son de lejos el contenido más suave y tímido que encontrarás en 4chan. He limitado el tiempo y la cantidad de publicaciones, y no estoy repartiendo el código del bot en sí", explica.

En efecto, el modelo de esta IA está alojado en Hugging Face, un gitHub para la IA desde donde está bloqueada la posibilidad de descargarlo.

Los inquietantes límites de la tecnología: OpenAI cierra una web de desarrollo de chats con inteligencias artificiales después de que un hombre reprodujera la personalidad de su difunta prometida

Kilcher se defiende también de quienes opinan que su IA ha podido herir sensibilidades: "Todo lo que oigo son vagas declaraciones grandilocuentes sobre el daño que ha podido hacer, pero absolutamente ningún caso real".

El ambiente de 4chan es tan tóxico, explica Kilcher a Vice, que los mensajes de sus bots han pasado poco menos que desapercibidos, excepto para los usuarios de la plataforma que, viendo la frecuencia con la que los robots publicaban, pensaron que se trataba de un experimento de la CIA para detener a algunos de ellos, entre otras teorías más o menos alocadas.

"A nadie en 4chan le dolió siquiera un poco todo esto. Te invito a que pases un tiempo en el foro y te preguntes si un bot que emite mensajes del mismo estilo del foro realmente cambia la experiencia".

No todo el mundo lo tiene tan claro. 

"Construir un sistema capaz de crear un contenido indescriptiblemente horrible, utilizarlo para producir decenas de miles de mensajes, en su mayoría tóxicos, en un tablón de anuncios real, y luego liberarlo al mundo para que cualquier otra persona pueda hacer lo mismo no parece lo más correcto", dice a Vice Arthur Holland Michel, investigador de IA y parte de un comité de Cruz Roja sobre el tema.

Tampoco lo ve claro para Vice Kathryn Cramer, estudiante de posgrado de Sistemas Complejos y Ciencia de los Datos en la Universidad de Vermont.

"Entiendo el impulso de hacer algo así. Incluso entiendo el impulso de hacer bromas con ello. Pero la realidad es que, esencialmente, inventó una máquina de escupir odio y la utilizó 30.000 veces".

Finalmente, Os Keyes, candidato a doctorado en la Universidad de Washington del departamento de Ingeniería y Diseño centrado en humanos, tampoco ve la utilidad de un experimento así en declaraciones para este mismo medio.

"Es un proyecto insípido del que no puede salir nada bueno, y eso es inevitable. Hay quien solo quiere atención. La mayoría de ellos utilizan 4chan; algunos, al parecer, construyen modelos a partir de él".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.