ONG Humanos vs Inteligencia Artificial

NUNE AUT NUNQUAM.

11/5/24

Alerta en Buenos Aires, Argentina por un joven que desnudó chicas con ClotOff.

El software ClotOff que desnuda chicas es un verdadero peligro.

Ya lo habíamos advertido desde Humanos vs Inteligencia Artificial.

Nos habíamos comunicado con la empresa de inteligencia artificial
ClotOff y nos habían manifestado que la intención al crear este programa era úncimanete con el objetivo de mejorar la comunicación de las personas. Obviametne algo salió mal.
Dr. Javier Miglino. Experto en Derechos Humanos y Protección de la Niñez. Fundador de la ONG INternacional Humanos vs Inteligencia Artificial.
Suiza. 2024

La ONG Internacional Bullying Sin Fronteras indicó que esta semana se desató un escándalo en un colegio católico de la ciudad de La Plata, Provincia de Buenos Aires, luego de que un numeroso grupo de padres denunciaran a la entidad internacional con sede en Suiza que un alumno de 13 años alteró fotos de sus compañeras de escuela para que se vean desnudas y así viralizarlas. Las víctimas tienen entre 13 y 15 años y ya se formalizó la presentación judicial para investigar formalmente la situación.
"Los padres de las chicas me contaron que un chico de segundo año del secundario se dedicó a robar fotos a 13 alumnas del colegio de su Instagram personal y modificarlas para que se vean desnudas. Luego de ello se encargó de reenviarlas por WhatsApp para viralizarlas. El resultado fue devastador", dijo el Dr. Javier Miglino, Experto en Derechos Humanos y Protección de la Niñez y Director Mundial de Bullying Sin Fronteras.

El daño es irreparable:

"Los afligidos padres me comentaron que el daño ya es devastador y que muchas chicas no solo cerraron sus perfiles de redes sociales sino que tienen miedo de asomarse a la calle por el terrible daño a su imagen que han sufrido. La Plata está lleno de colegios secundarios y a los alumnos de esas instituciones ya les llegaron las imágenes que corrieron como hilo de pólvora", dijo Miglino.
Bullying Sin Fronteras intentó contactar con el colegio:
"En el mismo momento en que corté la comunicación con los padres, les solicité a mis colaboradores en Buenos Aires que busquen un contacto inmediato con el colegio San Cayetano de la Plata, Buenos Aires; pero no hubo respuesta hasta la fecha", dijo Miglino.

El comunicado del Colegio San Cayetano, La Plata, Buenos Aires:

“Estimadas familias. Les notificamos que durante los últimos días en distintas redes sociales circulan ciertos contenidos que son muy ofensivos y violentos hacia quienes hacen referencia”, comienza el mensaje. Y continúa: “Desde diferentes áreas del colegio estamos abordando y reflexionando acerca del hostigamiento, la privacidad y la empatía”. Asimismo se les pidió a los padres “conversar también en casa sobre estos temas y sobre la participación directa o indirecta de sus hijos en este tipo de actividades en redes sociales”.
“La institución es una entidad que se compromete a su proyecto educativo reflejando la fe de la Iglesia Católica, que junto a todos los actores trabajan para que los y las estudiantes sean educados en los valores y principios recogidos en el ideario”, concluye el Colegio San Cayetano.
Las acciones judiciales:
"Las acciones judiciales en curso están destinadas a investigar el tema y lo primero será, conforme la legislación sobre el tema en la República Argentina, citar a los padres del menor que llevó a cabo las modificaciones y viralizó las fotos, atento a que con solo 13 años es considerado inimputable según el Código Penal y por ende exento de investigación y condena por cualquier tipo de delitos", concluyó Miglino.


ClotOff genera la imagen falsa sin ningún tipo de salvaguarda 

("esta imagen es falsa", por ejemplo).

Solo se limita a colocar una marca de agua sobre

la imagen falsa generada con el logo de la empresa.

Una nueva amenaza se cierne sobre las mujeres y en particular sobre las chicas más jóvenes e incluso las niñas. La Inteligencia Artificial de la empresa ClotOff genera imágenes falsas en la cual una señorita aparece desnudda a partir de una foto normal, por ejemplo en una plaza. A partir de al menos 12 episodios de este tipo, ocurridos en las provincias de Tucumán, Jujuy, Misiones y Cordoba; la ONG Humanos vs Inteligencia Artificial, ha lanzado el alerta por el peligro de la situación. Los abusos también han tenido lugar, con la misma I.A. en Lille, Francia, Burgos, España y Guadalajara, México. 

Así trabaja la IA ClotOff.
Un verdadero peligro social.
Imágenes: HUMANOS VS INTELIGENCIA ARTIFICIAL

"Hace dos años fundamos en Suiza la ONG Humanos vs Inteligencia Artificial, la primera organización de este tipo en el mundo. Nuestra idea fue impulsar un tipo de regulación para esa nueva tecnología, disruptiva y a la vez peligrosa, que poco a poco se instala en nuestro planeta. Sin embargo no pensábamos que íbamos a tener que defender a niñas y adolescentes que asisten impávidas a la publicación de sus fotos, completamente desnudas, en chats de WhatsApp. Las fotos son falsas, a partir de imágenes reales y tan comunes que demuestran que cualquiera está en riesgo. Mientras tanto la empresa ClothOff, solo se limita a colocar una marca de agua sobre la imagen sin siquiera señalar que se trata de una imagen 'fake'", dijo Javier Miglino, abogado experto en Seguridad y Fundador de la ONG Humanos vs Inteligencia Artificial.

Dos chicas intentaron suicidarse.

No entienden el daño que han causado.

"En apariencia y según los testimonios que hemos recogido, al menos 12 chicas fueron atacadas con esta Inteligencia Artificial en todo el país hasta ahora. Una de ellas en Tucumán se tomó una tableta completa de Clonazepam de la madre para suicidarse. Otra chica en Misiones quiso tirarse bajo un camión en la Ruta 14. Por fortuna en ambos casos intervinieron los padres y las chicas están recuperándose pero no podemos afirmar ni mínimamente que están bien. Los compañeros de estudio que bajaron la App de ClothOff y usaron la Inteligencia Artificial para desnudarlas, no saben el daño que han hecho", dijo Miglino.

La empresa ClothOff se 'lava las manos' con el uso de las imágenes:

"Parte del Equipo Multidisciplinario Internacional de la ONG Humanos vs Inteligencia Artificial se comunicó con la empresa ClothOff, proveedora del software. Nos indicaron que 'no se responsabilizan del uso que se le vaya a dar a las imágenes que se generan (como por ejemplo extorsionar a alguien). El internauta "es el responsable de no usar la aplicación para fines ilegales o no autorizados" dice concretamente la web que no acepta responsabilidades judiciales de lo que se pueda hacer con su tecnología', lo que nos deja más preocupados aún", dijo Miglino.

ClothOff declara que no conserva imágenes:

Preguntados sobre qué hacen con las imágenes que se suben o se construyen en la página, previo a generar el contenido, nos han manifestado que no almacenan ningún tipo de dato. Esto da a entender que una vez se ha usado la imagen de entrada en la IA se elimina de su base de datos.

Alertamos a las empresas Pornhub, Xvideos y Xhamster:

"Igualmente alertamos a los sitios pornográficos más conocidos del mundo, como Pornhub, Xhamster y XVideos; rogándoles que no indexen las fotos de estas niñas argentinas o las españolas, francesas o mexicanas. Si bien nos garantizaron que seres humanos se ocupan del rastreo de imágenes abusivas o falsas y que de ese modo podían garantizarnos que nunca serían indexadas en los sitios, muy poco más podemos hacer, mientras situaciones similares se suman en otras partes de Europa, América Latina y Asia", dijo Miglino.

El correo de Humanos vs Inteligencia Artificial:

"A todo efecto y en caso de abusos con I.A. pueden denunciarlo al correo: humansvsia@proton.me Haremos la investigación pertinente con reserva de identidad", concluyó Miglino.





Gentileza ONG HUMANOS VS INTELIGENCIA ARTIFICIAL.

Ginebra. SUIZA.

Permitida la reproducción con indicación de la fuente.

Alerta en Buenos Aires, Argentina por un joven que desnudó chicas con ClotOff.

El software ClotOff que desnuda chicas es un verdadero peligro.