Saltar al contenido

Frenar los desnudos generados por IA: ¿es posible?

En absoluto el problema es nuevo, pero en los últimos meses hemos observado un aumento de las imágenes generadas artificialmente que “desnudan” a una persona. Sí, lo que a veces puede ser una simple broma puede provocar una situación delicada. Supón que eres una chica joven y alguien coge una foto de tu perfil de Instagram y la pasa por una herramienta de inteligencia artificial generativa y logra una imagen sugerente de una chica desnuda… con tu cara. ¿Te gustaría?

Pues los legisladores estadounidenses han movido ficha para evitarlo. Han presentado un proyecto de ley cuyo objetivo es prohibir (o intentarlo) la creación y distribución de imágenes íntimas falsas o alteradas, que son conocidas como “deepnudes” o “deepfakes”, sin el consentimiento de las personas representadas. Esta medida se produce después de que varias estrellas de Hollywood, como Scarlett Johansson, Jennifer Lawrence y Natalie Portman, hayan denunciado públicamente el acoso y la violación de su privacidad que suponen estos contenidos.

Un escudo contra la pornografía vengativa

Este proyecto, llamado SHIELD Act (Stop Harmful Image Exploitation and Limit Distribution Act), pretende actualizar la ley federal contra la pornografía vengativa, que actualmente solo cubre la difusión de imágenes reales obtenidas sin autorización. Los autores de la iniciativa creen que los avances tecnológicos han “permitido que cualquiera pueda crear y compartir imágenes falsas de alta calidad” que pueden causar un daño irreparable a la reputación, la salud mental y la seguridad de las víctimas.

Los “deepfakes” son el resultado de aplicar algoritmos de inteligencia artificial que pueden generar imágenes realistas a partir de otras fuentes. Por ejemplo, se puede usar una foto de una persona vestida para crear una imagen de esa misma persona desnuda, o se puede manipular el rostro y la voz de una persona para hacerla decir o hacer cosas que nunca ha dicho o hecho. 

Estas técnicas se han extendido en los últimos años gracias a la facilidad de acceso a programas y aplicaciones que las ponen al alcance de cualquiera. Cada día lo vemos en redes sociales como Twitter, pero a veces no reparamos en los daños que podemos provocar a los afectados. Las secuelas que pueden acarrear en chicas jóvenes que están empezando a desarrollarse sobre todo va más allá de las risas que puede generar una fotito en un grupo de WhatsApp. 

Cualquiera puede ser la víctima, no lo olvides 

El problema es que estos contenidos se utilizan a menudo con fines maliciosos, como el chantaje, la extorsión, el acoso o la difamación. Según un estudio de la empresa de ciberseguridad Sensity, más del 90% de los “deepfakes” en internet son de naturaleza pornográfica, y la mayoría de ellos tienen como objetivo a mujeres famosas. Sin embargo, no solo las celebridades son vulnerables a este tipo de ataques. Cualquier persona con una presencia en internet puede ser víctima de estos falsificadores digitales.

Con todo, la propuesta pretende proteger a todas las personas que se vean afectadas por estos contenidos, imponiendo penas de hasta cinco años de cárcel y multas de hasta 250.000 dólares a los responsables de crear o difundir imágenes íntimas falsas o alteradas sin el consentimiento de las personas representadas. Además, el proyecto de ley otorga a las víctimas el derecho a demandar a los infractores y a solicitar una indemnización por los daños y perjuicios causados.


Ahora CHATGPT es mejor siendo gratuito: trucos para aprovecharlo

Te enseñamos a aplicar las capacidades de GPT 4o, el nuevo modelos de lenguaje de OpenAI que es grat…

Voces sensuales, la sumisión se quiere apoderar de la IA

A pesar de los esfuerzos, el desarrollo de los sistemas basados en inteligencia artificial continúan…

Scarlett Johansson, OpenAI y el problema de la IA

OpenAI retira una voz empleada para su nuevo modelo ChatGPT-4o por su parecido con la de la actriz S…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *