Internacionales

“Me quitaron la ropa y se me ve todo”: Usaron inteligencia artificial para desnudar a una conocida influencer

Johanna Villalobos es una conocida periodista, influencer y creadora de contenidos de Costa Rica, que esta semana fue víctima de un cuestionable uso de la tecnología. La joven denunció que una fotografía suya que se hizo viral en grupos de WhatsApp, en la que se la ve desnuda, es falsa y fue creada con inteligencia artificial.

“Alguien agarró una foto mía en la playa, que yo había subido a Instagram, le metieron inteligencia artificial… y me quitaron la ropa”, explico Villalobos en un video publicado en su cuenta de Twitter. Y agregó: “Es mi cara, pero no es mi cuerpo”,

El caso de Villalobos pone de manifiesto un tema que no es nuevo, pero que volvió a ser materia de debate y preocupación: el uso sin consentimiento de imágenes de celebridades para generar contenido falso para adultos.

Recibe las noticias directo en tu Whatsapp.
UNIRME A CANAL DE WHATASPP

El Canal del WhatsApp es más seguro, ya que otros usuarios no ven tu número telefónico

Desde la aparición del Photoshop y la llegada al público masivo de programas de manipulación de imágenes, las fotos fake de famosos son moneda corriente en internet, en sitios y foros para adultos. Sin embargo, para generar esas escenas (e inclusive videos apócrifos) era necesario contar con algunos conocimientos mínimos sobre los software de edición.

La Patilla

Mira nuestras noticias en Instagram.
SIGUENOS EN INSTAGRAM


Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba