No eran reales, pero lo parecían. La modificación de fotos para hacer parecer que estaban desnudas, con DeepNude.com, es tan sólo el último ejemplo de cómo cada vez es más fácil usar la tecnología para degradar a las mujeres en Internet.
Hasta el el miércoles por la tarde si hacías click en la foto de una mujer en Deepnude.com, de repente, su ropa desaparecía y pechos desnudos aparecían en la pantalla del computador. Era como mirar por la ventana de un extraño, violando por completo su privacidad.
Un día después ese sitio web había desaparecido. Su creador aparentemente tuvo una crisis de conciencia. Si escribe la URL, verá una página en blanco junto a un mensaje que en resumen dice “no disponible”.
Lee también: Jony Ive, el diseñador de Apple, dejará la compañía después de casi 3 décadas
Pero antes de que desapareciera, ofrecía a los visitantes como yo previsualizaciones gratuitas de un mundo horrible modificado por la inteligencia artificial donde las fotos de mujeres, cualquier mujer, podían ser desvestidas a través de algoritmos y compartidas con un abandono imprudente. Los desnudos resultantes no eran reales. Pero ciertamente lo parecían.
Falso, pero no lo parecía
El sitio web, reportado inicialmente por Samantha Cole en el sitio web de Vice Motherboard, comenzó a vender una aplicación de Windows y Linux a $50 dolares sólo unos días antes. Con ella podía tomar una foto de una mujer vestida y, utilizando IA, reemplazarla con una imagen bastante realista.
También había una versión gratuita que colocaría una gran marca de agua en las imágenes resultantes.
DeepNude estaba destinado a trabajar en mujeres, específicamente. Este es tan sólo el último ejemplo de cómo cada vez es más fácil usar la tecnología para avergonzar y degradar a las mujeres, en particular, en línea.
Las imágenes que creó en las muestras en línea no se veían del todo reales, pero eran lo suficiente para hacer que un observador se lo creyera. Y es probable que esas imágenes creadas por la IA sigan difundiéndose: cualquier copia de DeepNude que ya esté disponible podría ser replicada fácilmente y es probable que aparezcan otros similares.
Más común de lo que parece
La persona anónima detrás de la aplicación, quien supuestamente habló con Vice, dijo que DeepNude usó la técnica de inteligencia artificial detrás de muchos videos deepfake, una tecnología que permite superponer imágenes utilizando aprendizaje automático e inteligencia artificial, conocidos como GAN (red generativa antagónica).
Los GAN consisten en dos redes neuronales diferentes que se enfrentan entre sí en un esfuerzo por generar nuevos resultados, que pueden ir desde rostros de apariencia realista a pinturas o, en este caso, mujeres desnudas, que imitan a las de una montaña de datos de entrenamiento.
Lee también: PS1 a $30 mil: Revival de consolas noventeras a precios populares en sitios de ventas online
“Las herramientas digitales, una vez que están en libertad, son baratas y fáciles de replicar, y baratas y fáciles de usar, cada vez más”, explica a CNN Business Danielle Citron, profesora de derecho en la Universidad de Boston y autora del libro Crímenes de odio en el ciberespacio.
La caída
El rápido ascenso y caída de DeepNude muestra que existe una demanda de este tipo de software. En las horas posteriores a la aparición de la historia de Vice el miércoles, una cuenta de Twitter que parece estar vinculada al sitio web de DeepNude indicó que su servidor no funcionaba debido a “tráfico inesperado”.
Algunas actualizaciones más tarde, la cuenta tuiteó que DeepNude volvería a estar en línea “en unos días”. Luego, el jueves por la tarde, un nuevo mensaje apareció en Twitter, diciendo que el sitio había sido asesinado debido a las preocupaciones sobre un posible uso indebido a raíz de la demanda “muy subestimada”.
Aunque la versión gratuita de la aplicación creó imágenes que tienen marcas de agua, el mensaje de Twitter dice “si 500 mil personas lo usan, la probabilidad de que las personas lo usen mal es demasiado alta. No queremos ganar dinero de esta manera”.
“El mundo”, concluyó, “aún no está listo para DeepNude”.
Mil ojos sobre ti
Según GoDaddy, el servicio a través del cual se registró DeepNude.com, el sitio fue registrado por una organización en Estonia que se llama a sí mismo DeepInstruction. Un mensaje enviado al registrante del dominio a través de GoDaddy no recibió una respuesta.
Aunque DeepNude podría crear imágenes que parecen desnudos realistas, no son fotos reales de cuerpos desnudos. Así que, aunque hay un número creciente de leyes que penalizan la pornografía no consentida, como el porno de venganza, las imágenes producidas por dicho software asistido por AI no están cubiertas por la legislación existente, explicó Danielle Citron.
Sin embargo, la académica de Boston, quien dijo que ha hablado con mujeres que han sido objeto de tales imágenes, enfatizó que sienten el mismo tipo de invasión de la privacidad sexual que las que han tenido sus fotos filtradas.
“Te sientes como si tuvieras 1,000 ojos en tu cuerpo“, sostuvo.