Taylor Swift: imágenes pornográficas deepfake provocan indignación


Fanáticos de la cantante pop Taylor Swift, políticos estadounidenses e incluso la Casa Blanca expresaron su indignación por una serie de imágenes pornográficas falsas de la estrella, generadas por inteligencia artificial, que se viralizaron en la red social X y aún estaban disponibles en otras plataformas.

Una de estas imágenes fue vista 47 millones de veces en X, anteriormente Twitter, antes de ser eliminada el jueves. Según medios estadounidenses, la publicación estuvo visible en la plataforma durante aproximadamente 17 horas.

(Lea también: Así reaccionó Taylor Swift ante una broma en los Globos de Oro)

Las imágenes pornográficas deepfake –falsas pero extremadamente realistas– de celebridades no son nuevas, pero a activistas y autoridades les preocupa que herramientas fáciles de usar que utilizan inteligencia artificial (IA) generativa creen una avalancha incontrolable de contenido tóxico o dañino.

El ataque a Swift, la segunda artista más escuchada del mundo en la plataforma Spotify, después del rapero canadiense Drake, podría arrojar nueva luz sobre el fenómeno. "El único lado positivo de que esto le suceda a Taylor Swift es que probablemente tenga suficiente poder para aprobar una legislación que la derroque. Estás enfermo", escribió la influencer Danisha Carter en X.

alarmado

Incluso la Casa Blanca expresó preocupación por el tema. “Estamos alarmados por las noticias sobre la circulación de estas imágenes falsas”, dijo a los periodistas Karine Jean-Pierre, secretaria de prensa del presidente Joe Biden. “Desafortunadamente, a menudo nos encontramos con que la falta de aplicación de la ley tiene un impacto desproporcionado en las mujeres y las niñas, los principales objetivos del acoso en línea”, añadió.

Las imágenes pornográficas 'deepfake' circularon en las redes sociales.

Fotografía:

SUZANNE CORDEIRO/AFP

X es una de las plataformas de contenido pornográfico más grandes del mundo, dicen algunos analistas, ya que sus políticas de desnudez son más flexibles que las de Facebook o Instagram, propiedad de Meta. Apple y Google tienen la potestad de intervenir para controlar el contenido que circula en las aplicaciones mediante las reglas impuestas por sus sistemas operativos móviles, pero hasta ahora ambos han tolerado esta situación en X.

En un comunicado, X aclaró que "la publicación de imágenes de desnudos no consentidos (NCN) está estrictamente prohibida" en su plataforma. “Tenemos una política de tolerancia cero con respecto a este contenido”. La red social, propiedad del magnate Elon Musk, afirmó que estaba "eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas". Además, destacó que estaba "vigilando de cerca la situación para garantizar que cualquier nueva infracción se resuelva de inmediato y que el contenido se elimine".

Los representantes de Swift no respondieron inmediatamente a una solicitud de comentarios de la AFP.

(Le puede interesar: Taylor Swift fue elegida persona del año por la revista 'Time')

Barreras necesarias

Yvette Clarke, congresista demócrata de Nueva York que ha apoyado una legislación para combatir las fotografías pornográficas falsas, destacó que "con los avances en IA, crear 'deepfakes' es más fácil y barato".

Por su parte, el legislador republicano Tom Kean advirtió que "la tecnología de inteligencia artificial avanza más rápido que las barreras necesarias". “Ya sea que la víctima sea Taylor Swift o cualquier joven de nuestro país, debemos implementar salvaguardias para combatir esta alarmante tendencia”, añadió.

Un estudio de 2019 estimó que el 96% de los vídeos deepfake eran pornográficos. Según una investigación citada por la revista Wired, en los primeros nueve meses de 2023 se subieron 113.000 vídeos 'deepfake' a los sitios porno más populares.

AFP



 

enero 28, 2024
0

Search

Contact Me

Archives