ONG Humanos vs Inteligencia Artificial

NUNE AUT NUNQUAM.

16/2/24

Inquiétude international concernant l'App qui déshabille les filles.

ClotOff génère la fausse image sans aucun type de sauvegarde

("cette image est fausse", par exemple).

Il se limite à placer un filigrane sur la fausse image générée avec le logo de l'entreprise.

La police espagnole a ouvert une enquête après que des images de jeunes filles, modifiées grâce à l'intelligence artificielle pour se déshabiller, ont été envoyées dans une ville du sud du pays.

Un groupe de mères d'Almendralejo, dans la région d'Estrémadure, a rapporté que leurs filles avaient reçu des images d'elles-mêmes dans lesquelles elles apparaissaient nues.

L'une des mères, Miriam, a contacté le Dr Javier Miglino, fondateur de la première ONG de la planète qui travaille déjà contre les abus de l'IA. Dans le monde entier. L'ONG Humans vs Artificial Intelligence a pu interviewer via Zoom la mère désespérée qui lui a expliqué la situation qui, comme c'est la première du genre à se produire, personne ne peut proposer de solution.

Les témoignages des victimes:

Les filles concernées affirment que quelqu'un avait utilisé une application pour prendre des photos d'elles dans lesquelles elles apparaissaient nues.

Ils ne comprennent pas les dégâts qu'ils ont causés.

"Bien que la police ait identifié certains des jeunes qui pourraient être impliqués dans la production des images, l'âge des auteurs (12 à 15 ans) rend impossible toute poursuite pénale en Espagne. Cependant, les dommages qu'ils ont causés à les filles, d'autant plus que ce ne sont que des jeunes filles entre 12 et 14 ans et que tout cela se passe dans une petite ville où tout le monde se connaît. Les mères nous demandent de l'aide car elles ne savent pas quoi faire ni quoi Au moment où j'écris cette déclaration, des courriels arrivent indiquant que la même chose s'est produite en Italie, en France, en Corée du Sud et au Mexique", a déclaré le Dr Javier Miglino, expert en droits de l'homme et en éthique et fondateur de l'ONG Humans vs. Intelligence artificielle.

Nous appelons à la solidarité:

"Ceux et ceux qui ont accès au personnel qui travaille sur les sites pornographiques les plus connus au monde, comme Pornhub, Xhamster et les réponses dans ce cas et en plus, il y aurait des situations similaires dans d'autres parties de l'Europe, Amérique latine et Asie", a conclu Miglino.

ClothOff déclare qu'il ne conserve pas les images:

Lorsqu'on leur a demandé ce qu'ils faisaient des images téléchargées ou construites sur la page, avant de générer le contenu, ils nous ont répondu qu'ils ne stockaient aucun type de données. Cela implique qu'une fois l'image d'entrée utilisée dans l'IA, elle est supprimée de sa base de données.

Ce qui ne nous laisse pas du tout sereins, car il faut leur faire confiance.

Alerta en Buenos Aires, Argentina por un joven que desnudó chicas con ClotOff.

El software ClotOff que desnuda chicas es un verdadero peligro.