¿Alguna vez te preguntaste, al mirar el perfil de una posible pareja ideal en una plataforma de citas, quién está realmente sentado al otro lado de la pantalla? ¿Tendrá el mismo aspecto cuando se vean en persona?  Bueno, a veces la respuesta es “no” y puede tratarse de una estafa virtual en la que el uso de la Inteligencia Artificial tiene mucho que ver.

Investigadores de la firma Avast descubrieron una herramienta que, con inteligencia artificial, es capaz de crear cuentas y perfiles falsos en aplicaciones de encuentros, interactuar con sus víctimas y permanecer en el anonimato.

Se trata de LoveGPT, un programa basado en el popular bot ChatGPT, que usa la tecnología para crear textos ágiles y creíbles, componer fotos realistas de personas inexistentes y conversar con humanos.

Estafa virtual: cómo funciona LoveGPT, la app de citas falsa potenciada por Inteligencia Artificial

El objetivo principal de la herramienta es crear perfiles falsos (tiene un seleccionador aleatorio de 1000 nombres comunes y un generador de contraseñas) en varias plataformas de citas, rastrear y almacenar datos de las interacciones con los usuarios de las plataformas, incluyendo sus fotos de perfil, textos del cuerpo del perfil, fechas de conexión y otros datos.

Por otra parte, los descubridores de LoveGPT (que todavía está siendo desarrollada y mejorada) explicaron que el programa contiene varias funcionalidades para interactuar con los usuarios, como por ejemplo la lectura de bandejas de entrada de emails, navegación por la información sobre coincidencias (la forma en que las plataformas indican interés en el otro usuario), likes enviados y mucho más.

Además, gracias a ChatGPT, los desarrolladores de esta herramienta le sumaron potencia, creatividad y originalidad a su bot. Así, LoveGPT puede hablar sobre las películas favoritas de su interlocutor, sentir empatía, compartir recuerdos ficticios y demás comportamientos que imitan la conducta humana, creando conversaciones tan reales que resultan casi imposible no caer engañado.

Cómo evitar caer en la trampa de LoveGPT

Para intentar no caer en la trampa del chatbot del amor, desde Avasta aconsejan investigar un poco a la otra persona si el usuario se encuentra con una conversación demasiado perfecta o con un perfil demasiado pulido; por ejemplo, con una búsqueda rápida de imágenes inversas, que puede revelar si esa imagen de perfil se cogió de otro lugar.

También recomiendan estar atentos a perfiles “que parecen demasiado ansiosos por compartir historias personales o solicitar información personal”. En línea con esto, nunca hay que compartir datos personales como la dirección del domicilio, el lugar de trabajo o información financiera con alguien que acabas de conocer ‘online’.