Acoso en colegios de EEUU mediante pornografÃa falsa creada con IA
Al despertarse una mañana de octubre, Ellis, una adolescente de 14 años de Texas, tenÃa varias llamadas perdidas y mensajes de texto con imágenes de ella desnuda que circulaban en las redes sociales.
Al despertarse una mañana de octubre, Ellis, una adolescente de 14 años de Texas, tenÃa varias llamadas perdidas y mensajes de texto con imágenes de ella desnuda que circulaban en las redes sociales.
Las fotos falsas (basadas en su cara real y un cuerpo desnudo superpuesto) habÃan sido enviadas a compañeros de clase que difÃcilmente podÃan imaginarse el engaño.
Y es que la inteligencia artificial (IA) hace que los llamados "deepfakes" (videos, imágenes o audios generados que imitan la apariencia y el sonido de una persona) sean cada vez más realistas.
Las imágenes originales de Ellis y su amiga, que también fue vÃctima, fueron tomadas de Instagram, contó la estudiante de secundaria a la AFP.
Y no solo las de ellas, sino las de otras compañeras de clase. Después las fotos se compartieron en la aplicación móvil Snapchat.
"ParecÃa real, como si los cuerpos (desnudos) parecieran cuerpos reales", dijo la adolescente. "Y recuerdo haber estado muy, muy asustada".
A medida que se desarrolla la IA, también lo hace la pornografÃa deepfake, con imágenes y vÃdeos hiperrealistas que pueden crearse con un mÃnimo esfuerzo y dinero, lo que ha provocado escándalos y acoso en varios centros de enseñanza secundaria de Estados Unidos.
Las autoridades intentan suplir la falta de una legislación federal que prohÃba la práctica.
"Las niñas no paraban de llorar y llorar. Estaban muy avergonzadas", declaró Anna McAdams, la madre de Ellis, quien se sorprendió de lo realistas que parecÃan las imágenes. "No querÃan ir al colegio".
- Un teléfono y unos dólares -
La práctica se ha extendido, aunque no se sabe cuánto.
A finales de mes, estalló otro escándalo de desnudos falsos en un centro del estado nororiental de Nueva Jersey.
"Esto sucederá cada vez con más frecuencia", afirmó Dorota Mani, madre de una de las vÃctimas, también de 14 años.
Añadió que puede haber deepfakes pornográficos en internet de una persona sin que ella lo sepa, y que solo se investigan cuando las vÃctimas hablan.
"Muchas vÃctimas ni siquiera saben que hay fotografÃas y no podrán protegerse, porque no saben de qué", se queja.
Según los expertos, la ley ha tardado en ponerse al dÃa con la tecnologÃa, pese a que desde hace años existen versiones más crudas de pornografÃa falsa, a menudo de personas famosas.
Ahora, sin embargo, cualquier persona con una foto de linkedin puede ser una vÃctima.
Se sabÃa "que se iba a utilizar de esta manera", declaró a la AFP Henry Farid, profesor de informática en la Universidad de California, Berkeley.
El mes pasado, el presidente estadounidense Joe Biden firmó un decreto sobre IA que pide al gobierno generar barreras "contra la producción de material de abuso sexual infantil y contra la producción de imágenes Ãntimas no consensuadas de individuos reales".
En muchos casos ha resultado difÃcil localizar a los creadores de algunas imágenes, pero eso no deberÃa impedir que las empresas de inteligencia artificial detrás de ellas o las plataformas de las redes sociales donde se comparten rindan cuentas, estima Farid.
El problema es que no existe una legislación nacional que restrinja esta pornografÃa y sólo un puñado de estados han aprobado leyes que la regulan.
"Aunque se superponga tu cara a un cuerpo, el cuerpo no es realmente tuyo", dijo Renee Cummings, especialista en ética de la IA.
Esto puede crear una "contradicción en la ley", explicó a la AFP el profesor de la Universidad de Virginia, ya que se puede argumentar que las leyes existentes que prohÃben la distribución de fotografÃas sexuales de alguien sin su consentimiento no se aplican a los deepfakes.
Además quienquiera que tenga "un teléfono inteligente y unos pocos dólares" puede tomar las imágenes y muchas de las vÃctimas, principalmente mujeres y adolescentes, "tienen miedo de hacerlas públicas".
La pornografÃa deepfake "puede destruir la vida de alguien", reconoció Cummings, citando a vÃctimas que han sufrido ansiedad, depresión y trastorno de estrés postraumático.
- Trauma -
En Texas, la policÃa interrogó a Ellis.
Pero la situación parece haber pillado desprevenidos a los sistemas educativo y judicial.
"Me destroza que no tengamos elementos para decir: 'SÃ, eso es pornografÃa infantil'", dijo McAdams, su madre.
La compañera de clase que creó las fotos de Ellis fue expulsada temporalmente, pero la vÃctima dejó de ser sociable y extrovertida. Vive con "ansiedad" y ha pedido cambiarse de colegio.
"No sé cuántas personas podrÃan haber guardado las fotos y haberlas enviado. No sé cuántas fotos tomó", dice. "Mucha gente podrÃa haberlas conseguido".
A su madre le preocupa que las fotos puedan resurgir en internet porque podrÃa "afectarles por el resto de sus vidas".
Le puede interesar:
La contaminación por partÃculas finas mató a 253.000 personas en Europa en 2021
Trabajadores de Amazon en Alemania y Reino Unido hacen huelga en pleno "Black Friday"