'Falsos humanos': un nuevo tipo de estafa que utiliza inteligencia artificial llega a internet

Me topé por primera vez con Albertina en internet en octubre de 2020. Tenía que descubrirlo: ¿quién era la persona detrás de esa sonrisa?
Me topé por primera vez con Albertina en internet en octubre de 2020. Tenía que descubrirlo: ¿quién era la persona detrás de esa sonrisa?

Matthieu Bourel / Business Insider

Durante los últimos 2 años, he estado siguiendo a una mujer en internet. Suena siniestro, lo sé, pero escúchame. Su nombre es Albertina Geller y me topé con ella por primera vez en octubre de 2020 en LinkedIn. Se había dato de alta como autónoma en Chicago. Yo también soy autónomo, así que teníamos eso en común. En su biografía, decía lo siguiente: "Aprendo y enseño a la gente a estar sana, a equilibrar su intestino y a mejorar su sistema inmunitario para llevar una vida saludable". Yo mismo he sufrido algunos problemas intestinales y del sistema inmunitario. Me pareció que era cosa del destino.

Sin embargo, tengo que admitir que lo primero que me interesó de ella (y me llevó a pasar 2 años siguiéndola a distancia) no fueron nuestros intereses comunes. Fue su aspecto.

Su foto de LinkedIn era una imagen frontal de una mujer blanca, que rondaba los 20 años, con la tez pálida y mejillas ligeramente sonrosadas. Tenía el pelo rubio hasta los hombros, bien peinado hacia un lado. Miraba directamente a la cámara con ojos brillantes de color verde claro y una amplia sonrisa. Fue esta foto la que captó mi interés. Tenía que descubrirlo. ¿Quién era la persona que estaba detrás de esa sonrisa?

Albertina resultó tener una importante presencia en internet. Perseguía su pasión por la alimentación sana en Pinterest, donde colgaba imágenes de dietas antiinflamatorias de 14 días y batidos para ayudar a "beber hasta conseguir la salud intestinal". Escribía en foros de salud y tenía su propia página web y su blog, aunque todo parecía un poco descuidado. En todos los lugares a los que iba aparecía la misma foto, los mismos ojos brillantes, la sonrisa perfecta.

Pero el problema de la foto es que, si la miras con detenimiento (cosa que hice), empiezas a notar ciertas… rarezas. La oreja derecha parece estar más pegada que la izquierda. Sus primeras arrugas se concentraban de manera extraña alrededor de su ojo derecho. Si se amplía la imagen, se puede ver un pliegue tenue pero sorprendente en una de sus mejillas. El cuello de la camisa sobresale el doble de alto en un lado. 

En mi opinión, nada de esto disminuía su atractivo. Todo lo contrario. Eran sus rasgos característicos: los pequeños y extraños artefactos que había dejado el algoritmo que la creó. Porque Albertina Geller (o su cara, al menos) no era realmente humana, sino un producto de inteligencia artificial. En concreto, fue creada por un software llamado Generative Adversarial Network (GAN), que estudia caras y luego crea las suyas propias. No se trata del conocido tipo de deepfakes, que manipula imágenes de personas reales. Las GAN crean personas inexistentes. No pretenden suplantar a nadie ni robar una identidad. Están pensados para imitar los fundamentos de la apariencia humana con una fidelidad cada vez mayor.

Desde que empezaron a surgir estos falsos humanos hace unos años, los he estado observando en silencio. Albertina fue el origen, la primera imagen GAN que llamó mi atención. Pero pronto me encontré investigando a docenas, luego cientos, y más tarde miles de ellas en la web, catalogando dónde aparecían y a qué personas pretendían representar. Estos rostros se habían ido difundiendo silenciosamente en nuestro entorno digital. Pero, ¿quién los utilizaba y con qué fin?

En ese momento, pensé que podría otorgarle algo de humanidad a Albertina, respondiendo por ella a las preguntas que todos los humanos tenemos sobre nosotros mismos. ¿Quién es Albertina Geller y cuál es su propósito? 

Primero llegaron unas cuantas y luego hubo todo un aluvión de caras creadas por software como la de Albertina. Como ocurre con muchos avances tecnológicos, todo empezó como un ejercicio puramente académico, una especie de "veamos si podemos hacerlo".

En 2014, un grupo de informáticos de la Universidad de Montreal propuso las Generative Adversarial Network (en español, Redes Generativas Antagónicas) como un nuevo método de aprendizaje informático. Su interés particular era entrenar a un ordenador para que examinara un conjunto de imágenes y luego produjera sus propios parecidos. Hay muchas buenas razones para querer hacer esto, desde cuestiones médicas (generar imágenes de cánceres raros para entrenar a los radiólogos) hasta artísticas (crear imágenes únicas bajo demanda), pasando por comerciales (generar fotos artificiales de stock sin necesidad de modelos o sesiones fotográficas).

El sistema original del grupo de Montreal es sencillo, pero brillante. En primer lugar, alimenta el software con una colección de imágenes de aspecto similar: letras, vehículos, animales o rostros humanos. A continuación, en lo que se denomina el paso del "generador", el software extrae características de esas imágenes y las utilizaba para crear las suyas propias. En el caso de los rostros, esto implica extrapolar las líneas de cabello y las arrugas, los lóbulos de las orejas y las sonrisas, y luego dibujar nuevos rostros nunca vistos.

Los primeros rostros producidos por el generador eran borrosos y poco definidos. Fue en el siguiente paso del GAN, el "paso adverso", donde se produjo la magia. El generador se "enfrentó a un adversario": otra parte del software llamada "discriminador". El discriminador examina tanto las imágenes originales como las creadas por el generador e intenta averiguar cuál es cada una.

En su primer artículo sobre las GAN, el grupo de Montreal sugiere que pienses en el generador como en un falsificador que intenta crear una moneda de aspecto realista. El discriminador es como la policía, que examina billetes para detectar cuáles son falsos. El falsificador, a su vez, ve qué billetes se detectan como falsos y cuáles se le escapan, y luego incorpora ese conocimiento a su siguiente lote. "La competencia en este juego lleva a ambos equipos a mejorar sus métodos hasta que las falsificaciones son indistinguibles de los artículos auténticos", explica el equipo. Incluso en sus primeros esfuerzos, las imágenes de GAN estuvieron rápidamente a la altura de las realizadas por cualquier otro software menos inteligente. Unos años más tarde, empezaron a parecerse a las de Albertina.

Pronto, otros investigadores y empresas comenzaron a fabricar imágenes con GAN, alimentándolos con toda la variedad de conjuntos de imágenes. Pero las GAN se viralizaron por primera vez en 2019, cuando una página web llamada thispersondoesnotexist.com se popularizó. Pronto, el código para crear una GAN se convirtió en algo de libre disposición, hasta el punto que incluso un programador medianamente competente podía diseñar el suyo propio. Y lo hicieron.

Lo que me interesó de los rostros GAN como el de Albertina son sus diferencias con los famosos deepfakes. Los deepfakes más conocidos hasta ahora han sido en formato de vídeo: clips generados artificialmente como uno de Barack Obama, creado por BuzzFeed en 2018, pronunciando frases de Jordan Peele. O un falso Tom Cruise haciendo trucos de magia cursis en TikTok. O Lola Flores.

Las GAN no intentan suplantar a una persona concreta, sino que crean otras nuevas. Y, a diferencia de los esfuerzos de los deepfakes, se fabrican a gran escala, produciéndose por millones. Se trata de la industrialización de la falsificación, limitada únicamente por la ambición de sus creadores. La promesa de las GAN (o su amenaza) reside en lo mundanos que son. Albertina ya vive entre nosotros. Solo que puede que no te des cuenta de que está ahí.

Las redes adversarias generadas no manipulan imágenes de personas reales, sino que crean personas inexistentes.
Las redes adversarias generadas no manipulan imágenes de personas reales, sino que crean personas inexistentes.

Matthieu Bourel para Insider

Albertina Geller nació en una empresa llamada Generated Photos, en algún momento a principios de 2020. Con sede en Estados Unidos, Generated Photos fue fundada solo un año antes por un diseñador llamado Ivan Braun. Con el objetivo de "construir la próxima generación de medios a través del poder de la inteligencia artificial", la empresa empleó modelos de estudio para crear su catálogo de rostros humanos. A continuación, utilizó esas imágenes reales para "entrenar" al software para generar retratos de aspecto hiperrealista.

Puedes encontrar los resultados en la web de Generated Photos, donde puedes filtrar por etnia, edad, sexo, color de ojos y otros atributos. Escoge tu favorita: "Alegre niña negra con media melena castaña y ojos marrones" o "joven hombre blanco neutro con pelo negro corto y ojos azules". La empresa sugiere que las imágenes son para sustituir fotos de archivo, y sus condiciones de servicio prohíben su uso para "cualquier tipo de actividad ilegal, como la difamación, la suplantación de identidad o el fraude". Las fotos individuales pueden descargarse gratuitamente y la página afirma que "mucha gente ha encontrado nuestras imágenes útiles para la educación, la formación, el desarrollo de juegos e incluso las aplicaciones de citas". 

A partir de unos 3 euros, también se puede obtener una licencia exclusiva de un rostro concreto, una persona inexistente que sea tuya y solo tuya. 

Albertina no fue una de esas afortunadas. Se quedó sin hogar para siempre, en una colección abierta de más de 2,6 millones de imágenes que cualquiera puede descargar y utilizar. Allí es donde la encontré, destacando entre un conjunto rostros radiantes. 

Destacaba por algo más que por su aspecto. Las GAN de Generated Photos tienden a ajustarse a los estándares de belleza convencionales, producto de los modelos que han sido alimentados por el software. Pero Albertina también tenía algo de humanidad. Muchos rostros se representan con artefactos digitales que los hacen inmediatamente detectables como falsos. El software puede producir deformidades extrañas y a veces chocantes: ojos cómicamente asimétricos o rostros que se funden y se estiran de forma inhumana. Generated Photos parece excepcional a la hora de filtrar las anomalías y la gran mayoría de sus imágenes podrían pasar por humanas. Para unos pocos, como Albertina, las diferencias son casi imperceptibles.

Preguntándome su origen, introduje su foto en las herramientas de búsqueda inversa de Google y Bing, lo que me llevó a los perfiles de Albertina en LinkedIn y Pinterest. Con el tiempo, añadí buscadores de imágenes más especializados, como Yandex y TinEye. A partir de ahí, empecé a seguirla por internet, tratando de descubrir cuál era su cometido.

Lo que más hacía era responder preguntas en foros sobre salud y no sólo sobre salud intestinal. En un foro sobre el trastorno obsesivo-compulsivo, Albertina ofrecía información sobre si los "pensamientos sexuales" constantes constituían un TOC. En un sitio llamado Anxiety Central, daba respuestas a preguntas sobre todo tipo de temas, desde pruebas de coronavirus hasta antibióticos. En Quora, contestó a cientos de consultas sobre temas tan variados como el estreñimiento, las máquinas de remo y "algunas ideas creativas para decorar galletas con virutas". Editó páginas de Wikipedia, comentó recetas de pasteles e hizo un post en una web llamada singaporemotherhood.com. 

Por sus respuestas, no parecía ser un bot. Había alguien, o algún grupo, detrás de su rostro, creando sus perfiles, fijando sus recetas y escribiendo sus artículos en el blog. Ese alguien había hecho un esfuerzo considerable para transformar la foto rubia de Albertina en una persona de verdad, como si de Pinocho se tratase.

Durante la mayor parte de su historia, por supuesto, la fotografía ha apuntado en la dirección opuesta: plasmar algo humano y real. En sus primeros años, la fotografía fue aclamada no solo como una tecnología para preservar el mundo, sino como una nueva forma de examinarlo. Por eso Frederick Douglass quedó cautivado por sus posibilidades. Creía que las fotos ofrecían una forma de dotar a los negros de una dignidad que pudiera contrarrestar su deshumanización por parte de la sociedad estadounidense. Posó para cientos de retratos, convirtiéndose en el hombre más fotografiado del siglo XIX. 

A lo largo del siglo siguiente, llegamos a experimentar las innumerables formas en que la aparente objetividad podía ser manipulada. Las fotografías podían ser escenificadas de forma engañosa, subtituladas con mentiras o recortadas de forma selectiva. De hecho, se recortan por su propia naturaleza, presentando una porción de la realidad en lugar de la realidad misma. 

Con el desarrollo paralelo de la fotografía digital e internet, los temas que antes se debatían en las críticas fotográficas de alto nivel empezaron a metamorfosearse en nuestra vida cotidiana. Impulsadas por la ubicuidad de las cámaras potentes y la facilidad de Photoshop, las fotos perdieron cada vez más su anclaje a la realidad. En una década, pasamos de los retoques de las estrellas de cine en las portadas de las revistas a los potentes filtros fotográficos que llevamos en el bolsillo y que nos permiten manipular instantáneamente nuestras propias imágenes antes de compartirlas con el mundo.

Al mismo tiempo, las fotografías se convirtieron en algo trivial para hacer propaganda, al servicio de la ideología. Y, cuando el truco quedó al descubierto (como ocurrió con las fotos de la toma de posesión de Donald Trump, manipuladas de forma amateur para mostrar una mayor cantidad de público), multiplicó nuestro cinismo sobre lo que estábamos viendo.

Sin embargo, a pesar de todo esto, nuestra confianza en las fotos ha seguido intacta. Por muy tenue o sospechosa que sea la conexión, mi impulso sigue siendo creer que lo que estoy viendo en una fotografía es de alguna manera real, que en algún nivel, existe. Las GAN están aquí para cortar esa conexión. No con una realidad manipulada, sino con una totalmente fabricada.  

Incluso Albertina fue víctima de una especie de realidad múltiple. Su rostro en las fotos generadas era muy popular y mis búsquedas dieron como resultado otros personajes que lo reclamaban como propio. Su imagen aparecía en otra cuenta de LinkedIn, la de Zoya Scoot, una "especialista en marketing" de Cleveland. En Amazon, la imagen se correspondía con J.R. Wily, una autora de libros infantiles que parecía tener problemas con la gramática. En una web rusa de reparación de cámaras, era una clienta satisfecha llamada Leonova Margarita, mientras que en una web serbia de tiendas de regalos tomaba la forma de una especialista en atención al cliente. En YouTube se convertía en Mary Smith, autora de un vídeo de recetas de gachas, o en Maria Ward, que había infringido las condiciones del servicio y había sido suspendida.

Cada búsqueda que realizaba producía no solo nuevos usos de la foto de Albertina, sino también otras GAN de pelo rubio, que los motores de búsqueda consideraban lo suficientemente parecidas a la suya. Al fin y al cabo, ¿a qué se parecen más las GAN, aparte de a los demás? El asunto entero parecía un bucle retroalimentado de rostros rubios y sonrientes.

Era un bucle de retroalimentación interminable de rostros sonrientes y rubios.
Era un bucle de retroalimentación interminable de rostros sonrientes y rubios.

Matthieu Bourel para Insider

Llegados a este punto, decidí hacer ingeniería inversa. Recurrí a Angela Wang, una reportera de datos de Business Insider, que creó un código que examinaba miles de imágenes de Generated Photos, ejecutaba búsquedas de imágenes en cada una de ellas y clasificaba las que se utilizaban con más frecuencia y dónde. El programa generó una hoja de cálculo con miles de páginas que habían utilizado las GAN más populares.

Cuando empecé a revisarlo todo, me di cuenta de que las imágenes se dividían en varias categorías generales. El grupo más numeroso era el de las que recibían comentarios positivos de los usuarios. Luego estaban las imágenes dejadas en lo que parecían páginas web a medio terminar.

Por otro lado, había un grupo que correspondía a las fotos que suelen encontrarse en páginas rusas y chinas de dudosa intención, o en LinkedIn, que intentan hacerse pasar por periodistas u otros profesionales. Estas parecían haber sido utilizadas para estafas.

Sin embargo, lo más intrigante para mí fue la categoría "sobre nosotros": empresas cuyo personal completo estaba representado por imágenes GAN. Empresas como Platinum Systems, "un equipo de apasionados diseñadores, desarrolladores y estrategas que crean experiencias móviles que mejoran la vida", con un personal GAN de 12 personas. O biggerstars.com, una web de noticias de Hollywood cuya redacción al completo mostraba imágenes falsas. Allí se podían encontrar reportajes de gente como el "periodista editorial" Daniel T. Hammock -cuyo GAN tenía una camisa extrañamente abultada- con no-noticias como "George Clooney y Julia Roberts: en el set de rodaje de Queensland".

Cada vez que indagaba en una de estas empresas, solía existir algo de realidad detrás de ellas. Por ejemplo, Informa Systems, una empresa de Texas que vende material de formación para fuerzas y cuerpos de seguridad. En la página web de la empresa figuraban el Departamento de Policía de Austin, el estado de Nebraska y el Departamento de Policía de Los Ángeles entre sus clientes. Según los registros públicos de Texas, la empresa existe realmente. Y la policía de Austin, Texas, realmente contrató sus servicios. Pero las fotos de su página " Conoce a nuestro equipo" eran casi todas de GAN, desde el CEO "Greg Scully" hasta el director de marketing "Roger Tendul". (A Tendul, un hombre moreno con barba y cejas gruesas, ya lo había visto antes. Su foto aparecía en otros 30 sitios). La paradoja era casi demasiado perfecta: agentes de la ley recibiendo formación para detectar delincuentes en un sistema creado por una empresa llena de falsos empleados.

El único ser humano real en Informa parecía ser el responsable de implementación Mark Connolly, cuya foto parecía realmente imperfecta, y cuyo nombre aparecía en los documentos de la empresa. Cuando llamé para preguntarle a Connolly sobre todo esto, obtuve una respuesta del servicio de atención al cliente.

No es de extrañar que la mayoría de los sitios "sobre nosotros" ignoraran mis preguntas. Pero finalmente llegué a uno, una empresa austriaca de preparación de exámenes llamada takeIELTS. En la página "Acerca de nosotros" aparecía una plantilla de 14 sonrientes empleados, cada uno con una sólida biografía. Una mirada más atenta reveló anomalías de libro: Lena, la supervisora, llevaba un solo pendiente. Felix, el diseñador principal, llevaba un lado de la cara más afeitado que el otro. Emilia, examinadora de prácticas, llevaba unas gafas a las que les faltaba la montura para sujetar los cristales.

Conseguí concertar una llamada telefónica con el "responsable de crecimiento" de la empresa, Lukas (aficiones: "montar en bicicleta de montaña, nadar y pasar tiempo con mi familia en las afueras"). Tras unos minutos de charla, le pregunté con cautela si la gente de la empresa era, en fin, real.

Hizo una pausa. "Algunos lo son, sí", dijo. "Pero otros no". Tenían muchos empleados a tiempo parcial, me explicó. La gente entraba y salía, y habían elegido las GAN simplemente para que todo pareciera uniforme.

"¿Hay alguna manera de saber cuáles son reales y cuáles no?", le dije.

"No puedo decírtelo ahora mismo. Pero puedo investigarlo", respondió.

Luego vino la pregunta incómoda. "No lo digo con ánimo de juzgar", dije. "¿Pero eres real?"

"Sí", dijo. "Soy real".

Bueno, más o menos. Su nombre de pila sí es realmente Lukas y, en realidad, es el CEO de la empresa. Pero su perfil en LinkedIn y en la propia web de la empresa eran ficticios.

Lo que me desconcertó, como le dije a Lukas, fue que la compañía parecía tener bastante éxito. Había encontrado cientos de reseñas en Internet de clientes que parecían auténticos, ensalzando cómo les había ayudado el servicio. Entonces, ¿por qué sentía la necesidad de falsificar a sus empleados?

"Transmite el mensaje correcto de que es una gran empresa que trabaja con profesionales", argumentó.

No obstante, el problema de la falsedad es que, cuando se descubre, es difícil escapar de la sensación de que se oculta algo peor. Cuando volví a consultar la web de takeIELTS unos meses después, Lukas había eliminado todas las GAN y había cambiado el nombre de la empresa.

Las GAN de la primera oleada, como Albertina, ya se están viendo superadas por las imágenes de la IA que muestran una gama más amplia de expresiones, ángulos y fondos.
Las GAN de la primera oleada, como Albertina, ya se están viendo superadas por las imágenes de la IA que muestran una gama más amplia de expresiones, ángulos y fondos.

Generated Photos

Pronto me di cuenta que no era la única persona que intentaba distinguir las GAN de los seres humanos reales. A medida que las imágenes han proliferado, también lo han hecho los esfuerzos por descubrirlas. Y resulta que los mismos algoritmos utilizados para generar esos rostros falsos, también pueden emplearse para detectarlos. Para ello, basta con alimentar a los algoritmos con este tipo de imágenes para que sean capaces de detectar las imperfecciones.

Ya en 2013, un equipo de ingenieros de YouTube dio con un fenómeno que denominó "la inversión": el punto en el que el contenido falso que encontramos en internet supera al real. Los ingenieros estaban desarrollando algoritmos para distinguir entre las visualizaciones humanas auténticas y el tráfico web fabricado, es decir, las visualizaciones compradas y pagadas por bots o granjas de clics. Al igual que el discriminador de una GAN, los algoritmos del equipo estudiaban los datos de tráfico y trataban de entender la diferencia entre los visitantes normales y los falsos.

Blake Livingston, un ingeniero que dirigía el equipo en ese momento, me dijo que el algoritmo trabajaba a partir de una suposición clave: "Que la mayoría del tráfico es normal". Pero en algún momento de 2013, los ingenieros de YouTube se dieron cuenta de que el tráfico de bots crecía tan rápido que pronto podría superar las visualizaciones reales. Cuando lo hiciera, el algoritmo del equipo podría dar un vuelco y empezar a identificar el tráfico de bots como real y el de humanos como falso.

"Ese cambio no tenía por qué ser apoteósico, sino que podía ir ocurriendo poco a poco", recuerda Livingston, que ahora trabaja en tecnología educativa. Al final, los ingenieros ajustaron el algoritmo para que se basara en algo más que el tipo de tráfico mayor. En otras palabras, para ser más exigente y no confiar en su primer instinto.

Es el tipo de cosas que todos hemos empezado a hacer, en un mundo en el que las fotografías pueden representar una realidad alternativa tan fácilmente como la nuestra. En 2018, el escritor Max Read especuló con que internet ya había alcanzado la inversión: que había cruzado el punto de inflexión de un contenido mayoritariamente real a otro mayoritariamente falso. Es imposible de medir, pero es ciertamente plausible.

En el momento en que Read escribía, las imágenes generadas por GAN estaban todavía en pañales. Si para entonces no habíamos llegado ya a esa inversión, ahora estamos marchando hacia ella a paso ligero, dirigidos por ejércitos de Albertinas. El resultado es una especie de mundo con cualquier realidad en el que, por ejemplo, un presidente podría crear un universo de mentiras, y luego convocar a una turba en el Capitolio para tratar de hacerlo realidad. Cuando nuestro poder de discriminación está tan degradado que la verdad de una foto se reduce al lanzamiento de una moneda, no es sorprendente que empecemos a ver deepfakes por todas partes.

Algunos días, casi esperaba entrar en una cafetería y ver a Albertina sentada allí, mirándome fijamente.
Algunos días, casi esperaba entrar en una cafetería y ver a Albertina sentada allí, mirándome fijamente.

Matthieu Bourel para Insider

En mi búsqueda de Albertina, experimenté mi propia clase de inversión personal. Pasé tanto tiempo buscando rostros GAN, que empecé a verlos por todas partes. Ciertos tipos de fotografías empezaron a parecerme artificiales, aunque no pudiera especificar por qué. Cuando las introducía en mis protocolos de búsqueda, muchas veces acertaba. Pero no siempre. De vez en cuando, los resultados me sorprendían y mostraban a un ser humano real detrás de un rostro de aspecto artificial. Algunas personas, al parecer, tenían ese aspecto de GAN: una perfección en su postura y una universalidad en su sonrisa. Algunos días, casi esperaba entrar en una cafetería y ver a Albertina sentada, mirándome fijamente.

Mientras tanto, en internet empecé a reconstruir poco a poco quién era, o al menos quién querían que fuera sus creadores. Parecía haber cobrado vida para una especie de campaña de marketing, promocionando empresas una por una en la Red. Al organizar sus publicaciones cronológicamente, quedó claro que había sido sistemática: promocionaba a un fabricante de probióticos, a una web de tratamiento de TOC, a una empresa de máquinas de ejercicios...

Cuando intenté contactar con ella a través de los distintos correos electrónicos que aparecían en la Red, nadie respondió nunca. Pero por el camino dejaba escapar pistas sobre quién estaba detrás. Solía responder a preguntas sobre lo que a mí me parecían sus verdaderas pasiones: dónde conseguir las mejores artesanías de Rajastán en India o los mejores sitios para comprar kurtis, un tipo de vestido tradicional indio. También opinaba sobre sus medios de comunicación indios favoritos. En un foro, reveló una dirección IP en Maharashtra. En otro, alguien que utiliza el nombre de "Albertina Geller" ha sido señalado por enviar spam de una empresa india.

No hace mucho, después de llevar un tiempo sin investigar nada, volví a buscar a Albertina. Sigue tan ocupada como siempre, publicando artículos  sobre una nueva empresa llamada Truein. El programa informático de la empresa, llamado Staff Attendance, hace un seguimiento de las entradas y salidas de los empleados en la oficina. "Truein se ha convertido en una sensación de la noche a la mañana, si se puede llamar así", escribió recientemente. 

¿Y qué es lo que hace que Albertina esté tan entusiasmada con la empresa? ¿Cuál es la ventaja tecnológica que ofrece y que hace que su software sea superior al de sus competidores?

Reconocimiento facial.

Conoce cómo trabajamos en Business Insider.