Advierten sobre la amenaza de la pornografía deepfake en la era de la inteligencia artificial

Advierten sobre la amenaza de la pornografía deepfake en la era de la inteligencia artificial

Cualquier persona pueda ser objeto de acoso sexual. Cómo protegerse y cuál es el apoyo legal.

INTELIGENCIA ARTIFICIAL. La IA plantea un peligro para la sociedad con la creación de desnudos falsos. / PEXELS INTELIGENCIA ARTIFICIAL. La IA plantea un peligro para la sociedad con la creación de desnudos falsos. / PEXELS
15 Noviembre 2024

En la era de la inteligencia artificial, la amenaza de la pornografía deepfake se convirtió en una preocupación creciente. La proliferación de herramientas de IA hizo que cualquier persona pueda ser objeto de esta forma de acoso, incluso si nunca se tomó o envió una foto desnuda.

La pornografía de venganza, o la difusión no consensuada de imágenes sexuales, es una práctica antigua. Sin embargo, las herramientas de IA ahora pueden superponer el rostro de una persona en un cuerpo desnudo o manipular fotos existentes para que parezca que una persona no lleva ropa.

"Basta con tener una forma humana para ser víctima", resumió la abogada Carrie Goldberg en diálogo con el medio CNN. En el último año, los objetivos de las imágenes pornográficas no consensuadas generadas por IA incluyeron desde mujeres prominentes como Taylor Swift hasta niñas.

Cómo protegerse

Descubrir que se ha sido objeto de pornografía deepfake puede ser una experiencia aterradora y abrumadora. Goldberg, quien dirige la firma C.A. Goldberg Law en Nueva York, sugiere que el primer paso debería ser hacer una captura de pantalla de las imágenes.

"La reacción instintiva es eliminarlas de internet lo antes posible", afirma Goldberg. "Pero, si quieres tener la opción de denunciarlo penalmente, necesitas las pruebas", explica. Las víctimas pueden buscar los formularios que plataformas como Google, Meta y Snapchat ofrecen para solicitar el retiro de imágenes explícitas.

Otras herramientas que pueden ayudar son las organizaciones sin fines de lucro como StopNCII.org y Take It Down. Estas pueden encargarse del retiro de esas imágenes en varias plataformas a la vez, aunque no todos los sitios cooperan con estos grupos.

Apoyo legal y legislativo

La lucha contra las imágenes explícitas no consensuadas y los deepfakes recibió un apoyo bipartidista en los Estados Unidos. Un grupo de adolescentes y padres afectados por la pornografía generada por IA testificaron en una audiencia en el Capitolio, donde el senador republicano Ted Cruz presentó un proyecto de ley, apoyado por la senadora demócrata Amy Klobuchar y otros, que tipificaría como delito la publicación de tales imágenes y exigiría a las plataformas de redes sociales que las eliminaran previo aviso de las víctimas.

Sin embargo, por ahora y en general, las víctimas no disponen de herramientas muy específicas para defenderse de estas agresiones en línea. En algunos lugares no hay leyes penales que impidan crear o compartir deepfakes explícitos de adultos. Las imágenes sexuales de niños generadas por IA suelen caer bajo las leyes de material de abuso sexual infantil. Es crucial que las víctimas tomen medidas para protegerse y que la sociedad en su conjunto trabaje para prevenir este tipo de acoso.

***

¡Hola! Este es el WhatsApp para estudiantes de LA GACETA. Tus sugerencias son clave. Usá este canal para contarnos sobre eventos en Tucumán; proponer temas para nuestros artículos o comentar lo que estuviste leyendo en la sección. ¡Tu voz es importante para nosotros!

***

Suscribite al newsletter de LA GACETA “Completa con picante” y recibí semanalmente una selección de noticias para jóvenes con hambre de futuro. ¡Es gratuito!

Tamaño texto
Comentarios
Comentarios