Infotecno:Una aplicación machista que desnudaba a mujeres pone en el punto de mira la creación de imágenes falsas

Dosis de Bienestar Noticias
Una aplicación machista que desnudaba a mujeres pone en el punto de mira la creación de imágenes falsas Foto:http://EP

 

 

La inteligencia artificial es capaz de hacer aflorar también la estupidez humana. Una aplicación machista (DeepNude), desvelada esta pasada semana y que utilizaba algoritmos para recrear desnudos falsos de cualquier mujer fotografiada vestida, solo resistió un día al aluvión de críticas generadas. Deepfakes es el término anglosajón para las imágenes falsas, estáticas o de vídeo generadas por inteligencia artificial. Su uso masivo ha llevado a Estados y redes sociales a vetarlas o incluso penarlas. En España se lucha contra ellas con las leyes de protección de datos y el derecho al honor, a la intimidad y a la propia imagen.

La creación de vídeos o imágenes falsas se suelen usar como diversión, como caricatura o como denuncia. Este último caso es el vídeo creado por dos artistas que utilizaron la imagen de Marc Zuckerberg para poner en evidencia las reticencias de su red social Instagram para eliminarlas.

Pero DeepNude ha dejado en evidencia cómo una herramienta puede convertirse en un arma contra individuos de forma indiscriminada. Esta aplicación, que era gratuita, solo desnudaba imágenes de mujeres porque, según su creador, era más fácil encontrar en Internet la información de la que se alimentaba su programa de inteligencia artificial. Incluso si la foto original era de un hombre, le añadía órganos sexuales femeninos. El resultado de la aplicación, gratuita, se mostraba con una marca de agua y, si se quería la imagen completa, se añadía un cargo. En este caso, figuraba una leyenda sobreimpresa con la palabra fake(falsa) que era eliminable con cualquier programa de recorte de imagen.

Tras la ingente cantidad de críticas recibidas, en solo 24 horas, la aplicación fue eliminada por “sobrecarga del servidor y daños potenciales”, según se explicó en la plataforma.

No obstante, la efímera vida de esta aplicación machista ha puesto en evidencia la falta de control sobre las deepfakes, pese a los conocidos antecedentes con las noticias falsas.

Redes

Algunas plataformas han comenzado a poner coto, aunque otras siguen alimentando foros de intercambio. Muchas han cerrado los espacios donde se difundían estas imágenes y tutoriales de cómo elaborar las imágenes falsas.

Instagram, tras la difusión del vídeo falso de su propietario, no alteró la política de las redes de Zuckerberg. “Si los verificadores con los que tenemos acuerdos lo marcan como falso, lo filtraremos de las plataformas de recomendaciones de Instagram como Explorer y de las páginas de etiquetas”, afirmó la compañía sobre el vídeo creado por los artistas británicos Bill Posters y Daniel Howe, en colaboración con Canny AI, una compañía publicitaria israelí.

Twitter es más contundente: “Nuestras reglas son muy claras y está absolutamente prohibida la publicación de desnudos sin consentimiento de la persona. Entre los casos que especificamos que incumplen esta política está claramente definido que suspenderemos de forma inmediata y permanente cualquier cuenta que identifiquemos como origen de la publicación del contenido íntimo, incluidas las imágenes o vídeos que superponen o manipulan digitalmente de alguna manera la cara de una persona sobre el cuerpo desnudo de otra persona”

El Estado de Virginia (EEUU) se ha adelantado y convertido en uno de los primeros en añadir las “creaciones videográficas o imágenes estáticas falsas” a la legislación contra la denominada pornovenganza (revenge porn⁠), los vídeos con contenidos sexuales difundidos tanto por exparejas como por desconocidos con acceso no autorizado a imágenes y grabaciones íntimas de la víctima. Estas acciones pueden ser castigadas con multas y penas de cárcel.

“Se socializa el dolor”

“No es un problema nuevo. Las imágenes falsas han existido siempre, pero la inteligencia artificial lo hace más rápido y mejor y puede crearlas cualquiera. Son imágenes realistas y verosímiles y eso las convierte en peligrosas. Se socializa el dolor”, advierte Borja Adsuara, profesor, abogado, consultor y experto en derecho y estrategia digital.

Adsuara afirma que la inteligencia artificial es la herramienta, pero que la legislación española tiene en cuenta qué se busca con la creación de la imagen falsa. “Una parodia no es verosímil. Nadie cree que sea verdad. El problema es cuando las noticias o las imágenes falsas pueden tener un efecto devastador en una persona o una empresa”, explica.

Este experto señala que la resolución del conflicto puede ir desde el ámbito civil al administrativo o penal. Este último es el más grave. En este sentido, explica que hay tres artículos del código penal aplicables a estas acciones: el 173.1, que castiga el trato degradante, menoscabando gravemente la integridad moral de una persona; el 208, sobre injurias (acción o expresión que lesionan la dignidad de otra persona, menoscabando su fama o atentando contra su propia estimación); y el 205, que se refiere a la calumnia (imputación de un delito hecha con conocimiento de su falsedad o temerario desprecio hacia la verdad).

El artículo 18 de la Constitución regula el derecho al honor, a la intimidad y a la propia imagen. La ley orgánica 1/1982 desarrolla este artículo y el Reglamento de Protección de Datos considera como tales las imágenes personales. La ley prohíbe la obtención, reproducción o publicación de la propia imagen por parte de un tercero no autorizado

 

El Pais

Facebooktwitterredditpinterestlinkedinmailby feather

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

4 + 2 =