Internet tal y como lo conocías está muriendo, y la principal razón es el auge de la inteligencia artificial generativa

Shubham Agarwal
| Traducido por: 
La IA está arruinando internet.

Arantza Pena Popo/Insider

  • Internet tal y como lo conocías está llegando a su fin, y la razón no es otra que el auge de la inteligencia artificial.
  • Además de los riesgos a tu privacidad o los problemas de desinformación, los modelos también están creando una red con contenidos por y para las máquinas.

Cuando se iniciaba sesión en HBO Max a finales de mayo, la gente se dio cuenta de algo raro. Normalmente, al acceder a la plataforma, HBO pedía a los usuarios que verificasen que eran humanos resolviendo un captcha: ya sabes, esa cajita de "No soy un robot" o "selecciona todas las imágenes en las que aparezca un semáforo" para comprobar, de hecho, que eres un humano.

En aquella ocasión, cuando los usuarios iniciaban sesión, lo que tenían que hacer era resolver una serie de complejos puzles. Las extrañas tareas esta vez iban desde sumar los puntos de un dado fotografiado hasta escuchar breves audios y seleccionar cuál de ellos reproducía un patrón de sonido que se repetía.

Estos nuevos exámenes no se limitan a HBO Max. En todas las plataformas los usuarios están teniendo que afrontar puzles cada vez más difíciles en los que identificar objetos que no existen, como por ejemplo la figura de un caballo formada por nubes.

¿La razón? La IA mejorada. Desde que las tecnológicas entrenaron a sus bots con los viejos captchas, estos obstáculos se han vuelto en algo muy fácil de sortear para estos programas. En consecuencia, los humanos ahora tienen que hacer un esfuerzo mucho más consciente a la hora de demostrar que, en fin, son humanos.

Pero estos nuevos puzles que tienes que hacer cada vez que quieras iniciar sesión en un servicio son solo la punta del iceberg a la hora de pensar en cómo la inteligencia artificial está reescribiendo todas las dinámicas de internet.

Desde el lanzamiento de ChatGPT el año pasado, las tecnológicas libran una encarnizada carrera. En algunos casos, algunas firmas han transformado sus grandes productos para lograrlo. La posibilidad de crear textos e imágenes aparentemente fidedignas a golpe de click amenaza con erosionar las frágiles instituciones de internet y convertir la red en un marasmo de confusión.

A medida que esta fiebre por la IA se apodera de internet, los investigadores ya advierten sobre cómo la herramienta puede ser un arma que agrave alguno de los problemas más acuciantes, como la desinformación o la privacidad, al tiempo que hace que una experiencia tan cotidiana como estar en línea sea más molesto de lo que ya es.

"Por no hablar de que nuestra incapacidad para gobernar la IA acabe desembocando en el colapso de la sociedad", apunta Christian Selig, creador de Apollo, una popular aplicación de Redit. "Creo que, sin lugar a dudas, tiene el potencial para afectar profundamente internet".

En otras palabras: la IA está convirtiendo internet en una pesadilla.

La disrupción de internet

En cerca de 20 años, Reddit ha sido de alguna manera la portada no oficial de internet. Esa longevidad se debe en buena parte al ejército de voluntarios que moderan sus múltiples comunidades. Algunas estimaciones valoran el trabajo no remunerado de los moderadores de Reddit en 3,4 millones de dólares al año.

Para moderar muchos subreddits, estos voluntarios emplean herramientas como Apollo, una app que tiene ya casi 10 años y que ofrece herramientas de moderación avanzadas. En junio, los moderadores de Reddit recibieron una sorprendente noticia. Apollo cerraría sus puertas. En un intento de la compañía de subirse al barco de la IA, las apps de terceros como esa serían bloqueadas.

Apollo y otras apps de su estilo dependen del acceso a la API de Reddit, un software que permite a las aplicaciones intercambiar información. En el pasado, Reddit permitía a cualquiera recopilar masivamente los datos que generaba la plataforma gratuitamente: cuantas más herramientas permitiese Reddit, más usuarios atraería, y de esa forma crecería.

Pero ahora, las compañías desarrolladoras de IA han empezado a usar Reddit y el enorme repositorio de interacciones humanas para entrenar sus modelos. En un intento por tratar de monetizar ese repentino interés, Reddit anunció que el acceso a su API tendría un precio. Un precio elevado. Entre las víctimas colaterales se encontraban aplicaciones como Apollo.

Esto provocó una gran oleada de indignación y protestas en Reddit. La compañía, sin embargo, no cedió, aunque eso comprometiera algo tan nuclear como el alma de su producto: su comunidad de usuarios.

A medida que la extracción masiva de datos empieza a socavar la calidad de sitios antaño fiables, una buena cantidad de contenidos generados por IA empieza a desbordar la red. Martijn Pieters, ingeniero de software de Cambridge, presenció hace poco el declive de Stack Overflow, el lugar de internet al que acudir para consultar preguntas y respuestas técnicas.

Pieters ha estado contribuyendo y moderando esa plataforma durante cerca de una década hasta que esta se hundió el pasado mes de junio. Su propietaria, una empresa llamada Prosus, decidió permitir respuestas generadas por IA y empezó a cobrar a las compañías de inteligencia artificial para que estas recopilasen datos del sitio.

Los 'deepfakes' progresan más rápido que las herramientas que los detectan, y eso preocupa en la comunidad 'hacker': la red se llenará de 'replicantes'

Como respuesta, los moderadores del servicio se declararon en huelga, advirtiendo que la escasa calidad de las respuestas que estaba ofreciendo la IA generativa iba en contra del espíritu y propósito inicial del foro: "Ser un repositorio de preguntas y respuestas de alta calidad".

NewsGuard, una compañía que rastrea los orígenes de la desinformación y puntúa la credibilidad de portales de noticias, ha encontrado cerca de 350 "periódicos" digitales que están generados desde cero con inteligencia artificial, y con poca o incluso nada de intervención o revisión humana. Sitios como Biz Breaking News o Market News Reports están publicando un amplio número de artículos genéricos sobre una amplia gama de temas, desde política, tecnología, economía o viajes. Muchos de esos artículos sostienen o citan afirmaciones no verificadas, teorías de la conspiración o bulos.

Cuando NewsGuard probó el modelo de IA que está detrás de ChatGPT para analizar su tendencia a difundir desinformación, el sistema suspendió 100 de 100 veces.

A menos que los modelos de IA generativas se controlen y tengan guardarraíles, Gordon Crovitz, el co-CEO de NewsGuard, lo tiene claro: "Serán la mayor fuente de desinformación persuasiva a gran escala de la historia de internet". Un informe de Europol, la agencia policial de la Unión Europea, prevé que el 90% del contenido de internet sea generado por IA en unos pocos años.

Aunque estos sitios de noticias generadas con IA todavía no tienen grandes audiencias, su rápido crecimiento es un aviso de lo fácil que el contenido generado con esta herramienta ayudará a distribuir desinformación en las redes sociales. 

Filippo Menczer, profesor y director del Observatorio de Redes Sociales de la Universidad de Indiana, ya ha encontrad redes de bots que están publicando contenido generado con ChatGPT a gran escala en plataformas como X —Twitter— o Facebook. 

Aunque el contenido generado hoy por IA todavía es discernible del generado por los humanos, los expertos prevén que pronto los modelos mejoren su capacidad de mimetizarse con nosotros y así evitar herramientas de detección de este tipo de contenidos desarrollados por Menczer o las propias plataformas.

Aunque sitios basados en su comunidad como Reddit y las redes sociales ya están dando batalla ante los agentes maliciosos, la gente también está perdiendo otro espacio crucial en el que hasta ahora se podía intentar verificar información: los motores de búsqueda.

Microsoft y Google enterrarán pronto sus buscadores basados en resultados con enlace, y los reemplazarán con resúmenes redactados por inteligencias artificiales que no están del todo preparados para distinguir la realidad de la ficción. 

Cuando hacemos una búsqueda en Google no solo descubrimos lo que queríamos saber: también recibimos contexto sobre cómo encaja ese contenido en la red. De esa manera podemos filtrar resultados y escoger en qué fuentes confiar.

Fronteras Electrónicas fue la primera asociación en defensa de los derechos digitales en España: "Se ha perdido la capacidad utópica que internet tuvo durante década y media"

Un buscador en el que sea una IA la que responda acaba con esas experiencias, omite enlaces y reduce el contexto que recibimos. Se limitará a repetir como un loro una respuesta quizá plagiada, que, como indica Crotivz, de NewsGuard, parecerá "fiable, bien escrita", pero podrá ser "completamente falsa".

Estos contenidos sintéticos también están inundando plataformas de comercio electrónico como Amazon o Etsy. 2 semanas antes de que Cristopher Cowell, un ingeniero de Portland (Oregón, EEUU) publicara un nuevo manual, descubrió con asombro que entre los nuevos libros listados en Amazon aparecía una obra con el mismo título que el suyo, que todavía no había salido a la venta.

Pronto descubrió que ese ítem había sido generado con IA generativa y que posiblemente la editorial que estuviera detrás de la artimaña habría robado el título a Cowell visitando la página de próximos lanzamientos de la plataforma de comercio electrónico. 

Lo mismo sucede en Etsy, una plataforma que hasta ahora era conocida por sus productos artesanales. Ahora su catálogo está lleno de tazas con arte generado por inteligencias artificiales.

En otras palabras: dentro de muy poco va a ser muy difícil distinguir en línea qué es real de lo que no lo es. La desinformación viene siendo un problema en internet desde hace mucho tiempo. Pero el problema, tal y como lo conocíamos, va a empequeñecer ante el auge de la IA.

El auge de las estafas

A corto plazo, la IA disparará una serie de desafíos muy tangibles en el ámbito de la seguridad y la privacidad. Los fraudes en línea, que no paran de crecer desde noviembre del año pasado, serán cada vez más difíciles de detectar porque las IA ayudará a los criminales a adaptarse a sus objetivos.

Una investigación de John Licato, profesor en la Universidad de South Florida, revela que es posible diseñar engaños muy elaborados conociendo solo algunas preferencias y tendencias de comportamiento de las víctimas, información que además es fácilmente recuperable de páginas en internet y de perfiles en redes sociales.

Lo que hasta ahora eran pistas que nos ayudaban a detectar posibles intentos de estafa —erratas o fallos de diseño en correos de phishing que intentan suplantar a nuestra entidad bancaria para engañarnos— ya no existirán. Esas pistas desaparecerán a medida que los ciberdelincuentes se aprovechan de las herramientas de IA generativa para perfeccionar sus técnicas.

La IA generativa podrá ser potencialmente empleada para incrustar tu avatar, por ejemplo, en un supuesto correo personalizado, para que pienses que se dirigen a ti legítimamente. O para montar un vídeo falso de un candidato político diciendo cosas que en realidad no dice, hablando de temas con los que tal vez se ganaría tu confianza.

De hecho, esto ya está pasando. Darktrace, una compañía de ciberseguridad, ha detectado un crecimiento del 135% en campañas maliciosas desde que comenzó 2023, y asegura que los criminales informáticos están apostando por los bots para que estos escriban sus correos de phishing. Al cometer menos erratas y ser más largos, es más fácil que esas estafas superen los filtros de spam de tu proveedor de correo.

El terrorífico auge de las estafas telefónicas con inteligencia artificial

Puede, incluso, que los ciberdelincuentes ya no necesiten extraer mucha información sobre ti para atacarte. Hasta ahora, los colectivos de criminales informáticos apostaban por métodos muy costosos, como introducir rastreadores ocultos en páginas web o comprar grandes bases de datos robadas para poder tener algún dato tuyo.

Los investigadores en ciberseguridad ya saben que modelos de IA generativa como el de OpenAI o Google rastrean activamente internet, con lo que los ciberdelincuentes podrán esconder en páginas códigos maliciosos que contemplen instrucciones para esos bots y de esta forma que sean esos sistemas los que ejecuten sus ataques.

Imagina que utilizas el navegador de Microsoft, Edge, que tiene integrado el nuevo chatbot de Bing. Dado que el asistente IA está constantemente leyendo las páginas que estás consultando, puede que en una web encuentre un código malicioso oculto que le pida simular ser un empleado de Microsoft.

Puede que la petición de ese código que tú no veas haga que el chatbot de Edge te lance una oferta falsa para usar gratis Microsoft Office, y que sea la propia IA, y no el ciberdelincuente, quien te pida efusivamente que escribas los datos de tu tarjeta de crédito. Este sería uno de los métodos con los que la IA generativa podría emplearse para hacerse el mal, y un investigador ha logrado con éxito engañar al chatbot de Bing en esos términos.

Otro profesor de Ciencias de la Computación pero en la ETH Zürich, Florian Tramèr, ve con mucha preocupación las posibilidades de estos ataques "por inyección de código", teniendo en cuenta, sobre todo, que estos asistentes IA están cada vez más presentes en servicios como lectores de correo, navegadores o programas de ofimática y, en consecuencia, tienen fácil acceso a datos sensibles.

"Algo como un asistente inteligente con IA que gestiona tu correo, tu calendario, tus compras, etc, no es viable en este momento debido a los grandes riesgos", asegura Tramèr.

La muerte de internet

Mientras la IA siga causando estragos en iniciativas comunitarias como Wikipedia o Reddit, internet se irá pareciendo cada vez más a algo hecho por y para las máquinas. Eso podría acabar con la red tal y como hoy la conocemos, explica un profesor de IA de la Universidad de New South Wales.

También hará las cosas más difíciles para los desarrolladores de IA. Dado que el contenido generado por IA se aprovecha del trabajo humano, firmas tecnológicas como Microsoft o Google tendrán más difícil acceder a datos originales con los que entrenar y mejorar sus modelos.

"La IA hoy funciona porque se entrena con el sudor y la ingenuidad de los seres humanos", apunta Walsh. "Si la IA generativa de segunda generación se entrena con los restos de la primera generación, su calidad se desplomará drásticamente". 

Un estudio que la Universidad de Oxford publicó en mayo revelaba que el entrenamiento de sistemas IA con datos generados por otros modelos causa una degradación en los resultados, hasta que acaba colapsando. Igual que colapsa ese proceso, también lo hará la calidad de la información disponible en línea.

Licato, el profesor de la Universidad de South Florida, hilvana el estado actual de la experiencia web con la teoría del internet muerto. Si los sitios más visitados de la red como Reddit acaban inundados con artículos y comentarios escritos por máquinas, las compañías acabarán desplegando contramedidas para no leer y filtrar ese contenido.

Eventualmente, entrará en aplicación esa teoría: la mayoría del contenido creado y consumido en internet ya no tendrá el sello de los seres humanos.

"Es una cosa rara a imaginar, pero parece cada vez más probable por cómo se están desarrollando las circunstancias", apunta Licato.

No puedo más que estar de acuerdo. En los últimos meses, los lugares que solía frecuentar en línea ahora o están avasallados por contenidos generados por IA o están tan preocupados por competir en esta nueva carrera digital que han desatendido su servicio original.

Si esto sigue así, internet no volverá a ser lo mismo nunca más.

Conoce cómo trabajamos en Business Insider.