Cómo la inteligencia artificial amenaza la identidad digital

Cómo la inteligencia artificial amenaza la identidad digital

La sustitución de identidades reales a partir de la creación de contenido falso y engañoso es uno de los riesgos más graves vinculados al uso de la IA.

IDENTIDAD DIGITAL EN PELIGRO. Los deepfakes pueden provocar daños irreparables./CANVA IDENTIDAD DIGITAL EN PELIGRO. Los "deepfakes" pueden provocar daños irreparables./CANVA
21 Agosto 2024

Elon Musk provocó un gran revuelo hace unos días con el lanzamiento de la función de generación de imágenes de Grok, su inteligencia artificial (IA) sin restricciones.

Muchos usuarios se tomaron la novedad como una oportunidad para hacer bromas y divertirse, y produjeron fotos de Donald Trump y de Kamala Harris besándose, o de Taylor Swift en ropa interior. Pero, ¿qué sucederá cuando esta tecnología comience a usarse para generar desinformación? ¿Y si se crean imágenes falsas de personas que no son famosas?

La ausencia de restricciones en herramientas como Grok facilita la creación de deepfakes, un tipo de contenido generado por IA que manipula imágenes, videos o audios para hacerlos parecer reales, aunque sean falsos. Los deepfakes pueden ser tan convincentes que resulta extremadamente difícil distinguir entre lo auténtico y lo fabricado. Esta capacidad para crear representaciones engañosas de personas reales, especialmente de figuras públicas, presenta un serio desafío para la veracidad de las publicaciones y puede ser utilizada para difundir desinformación.

Costos bajos para causar un daño muy alto

El bajo costo y la accesibilidad de las herramientas de IA han exacerbado el problema de la desinformación. Se calcula que, a partir de esa tecnología, es posible crear una máquina de desinformación a gran escala con menos de U$S 400 al mes. Esta accesibilidad económica ha popularizado la creación de contenidos falsos. Hoy literalmente cualquier usuario de internet puede lanzar campañas de desinformación sofisticadas sin necesidad de grandes recursos financieros.

Mentalidad "zero trust"

Para mitigar los riesgos asociados con la desinformación generada por IA, el Foro Económico Mundial sugiere adoptar una mentalidad zero trust, concepto extraído de la ciberseguridad, en la información online. Este enfoque implica no confiar en nada por defecto, y verificar cada fuente y contenido. Aplicar este estándar al consumo de información digital es crucial para manejar los desafíos que presenta la IA generativa, y proteger la integridad de la propia identidad digital y de la de terceros.

Dilemas morales

El avance de la IA y la creación de deepfakes también plantean importantes preguntas éticas. El Foro Económico Mundial destaca dos dilemas morales clave:

“¿Las nuevas tecnologías nos llevarán a confundir la comunidad virtual con la conexión humana real?”

“¿Qué aspecto tiene la vida post-mortem en un mundo donde las identidades digitales pueden ser replicadas y animadas?

Estas cuestiones subrayan la necesidad de reflexionar sobre cómo la tecnología está transformando nuestra comprensión de la identidad, la dignidad y el consentimiento en la era digital”.

***

Suscribite al newsletter de LA GACETA  “Completa con picante” y recibí semanalmente una selección de noticias para jóvenes con hambre de futuro. ¡Es gratuito!

WHATSAPP ESTUDIANTES ¡Tu voz es importante para nosotros! Contanos sobre eventos en Tucumán; proponé temas para nuestros artículos o comentá lo que estuviste leyendo. Escribinos al WhatsApp Estudiantes de LA GACETA.
Tamaño texto
Comentarios
Comentarios