¡Indignante! Se viralizan fotos de Taylor Swift desnuda creadas con AI

0
15567
Taylor Swift

En las últimas horas, una serie de fotografías y videos creados con inteligencia artificial (IA) de Taylor Swift, conocidos como “deepfakes”, se han vuelto virales. Estas imágenes que muestran a la cantante desnuda realizando poses sugerentes en eventos de los Kansas City Chiefs, empezaron a difundirse este jueves en la red social X, donde usuarios se burlaron de las visitas de la cantante a los eventos deportivos de su novio, Travis Kelce.

Hasta el momento, se desconoce quién fue el autor de dicho material o quién lo compartió por primera vez en redes sociales. Sin embargo, se sabe que algunas cuentas que difundieron este material gráfico fueron eliminadas.

Ante esta situación, el fandom de la intérprete de “Shake It Off” ha demostrado ser uno de los más fieles y se ha unido para tratar de eliminar las imágenes, así como para reportar las cuentas y publicaciones.

Aunque la misma Taylor no ha mencionado nada al respecto, según Daily Mail, una fuente cercana a ella reveló que la artista está considerando presentar una demanda e investigar para identificar a los responsables. Incluso aseguró que su círculo cercano está furioso.

 

“Se está decidiendo si se tomarán o no acciones legales, pero una cosa está clara: estas imágenes falsas generadas por IA son abusivas, ofensivas, explotadoras y se realizan sin el consentimiento y/o la autorización de Taylor”, afirmó la fuente.

Esa misma persona reveló que probablemente, el caso de la cantante podría ayudar a promover algún tipo de ley que regule el contenido creado con inteligencia artificial, dado que tan solo en este año se han publicado más de 143 mil nuevos videos e imágenes “deepfake”. Asimismo, pidió a los usuarios no promover las fotos.

Algunos países ya han pensado en regular el contenido creado con esta tecnología, ya que se ha visto un aumento en el material sexual infantil o imágenes íntimas de personas reales.

Precisamente, este tema ha generado un debate sobre la supervisión del uso de la tecnología para prevenir la viralización de contenido íntimo creado por IA.

Hasta el momento, este tipo de material es considerado pornografía y es ilegal en Texas, Minnesota, Nueva York, Virginia, Hawái, Georgia, Illinois y California, donde las víctimas pueden demandar a los creadores.

Autor

  • Cecilia Colín

    Como Chilanga de nacimiento, sudcaliforniana de corazón y amante de los animales, estudié la licenciatura de Cine y TV Digital en la Universidad de Londres (UDL). Inicié en los medios de comunicación en Grupo Fórmula y posteriormente participé en proyectos de Televisa Deportes. Actualmente, me desempeño como editora y redactora web en CPS Media.

    Ver todas sus publicaciones