Fotos de niños son usadas para entrenar la IA sin que sus padres sepan

Según una investigación de Human Rights Watch, ha revelado que un conocido conjunto de datos utilizado para entrenar modelos de IA, contiene imágenes de menores que violan gravemente su privacidad

Tecnología Sala de redacción
Inteligencia Artificial - IA - niños - privacidad

Vídeo: DW Español

Human Rights Watch (HRW) ha lanzado una dura advertencia sobre un nuevo problema relacionado con la inteligencia artificial (IA) y sus implicaciones sobre los derechos y libertades de los niños. Una investigación ha puesto de manifiesto que el conjunto de datos LAION-5B, ampliamente utilizado para el entrenamiento de modelos de IA, contiene imágenes de menores que violan gravemente su privacidad.

A principios de año, Hye Jung Han, investigadora de HRW reportó a Wired, que identificó que el conjunto de datos LAION-5B incluía 170 fotos de niños brasileños. Las imágenes fueron obtenidas principalmente de blogs personales, redes sociales y videos con escasa visibilidad en YouTube.

Esto es de suma gravedad porque los términos de servicio de YouTube prohíben la recopilación de datos personales sin el consentimiento adecuado, lo que evidencia un ataque directo a estas políticas.

Twitter X Denuncian a “X” en nueve países europeos por entrenar su Inteligencia Artificial con datos privados

Qué imágenes de niños son usadas para entrenar modelos de IA

En un hallazgo aún más reciente, se encontró otras 190 imágenes de niños australianos, incluidas fotos de recién nacidos y niñas en bañador durante un carnaval. Estas imágenes fueron compartidas originalmente bajo estrictas medidas de privacidad, en blogs personales o en redes sociales con acceso limitado.

Algunas incluso provenían de fotógrafos profesionales contratados por familias o instituciones educativas para eventos específicos. La presencia de estas fotos en el conjunto de datos plantea serias preocupaciones sobre la falta de control y autorización en la recopilación de datos personales.

Asimismo, una de las preocupaciones más graves destacadas por HRW es que, las URLs de estas imágenes a menudo contienen información sensible, como nombres y ubicaciones específicas.

La IA predijo cuál sería el club favorito para ganar la Champions League foto 5 prensa champions leagueLa IA predijo cuál sería el club favorito para ganar la Champions League 2024/25

Por ejemplo, una imagen etiquetada con detalles precisos permitió a los investigadores obtener los nombres completos y la guardería frecuentada por dos niños en Perth, Australia. Esta capacidad para extraer información privada de imágenes supuestamente seguras reflejan la vulnerabilidad a la que están expuestos los menores en la era digital.

Qué tan difícil es buscar imágenes de niños en línea

Estas imágenes son extremadamente difíciles de localizar mediante búsquedas en línea regulares, lo que indica que los padres y cuidadores han tomado medidas deliberadas para proteger la privacidad de los niños.

Sin embargo, las herramientas y técnicas utilizadas para crear conjuntos de datos masivos como LAION-5B han ignorado estas medidas, exponiendo la privacidad de los menores a un riesgo considerable.

HRW ha señalado que su equipo solo pudo revisar una fracción mínima del conjunto de datos, menos del 0,0001 % de sus 5.850 millones de imágenes. Los investigadores se sorprendieron por la cantidad de fotos personales de niños que encontró incluso en una muestra aleatoria.

800px-Feria_de_Otoño_del_Libro_Viejo_y_Antiguo_de_Madrid_13La comunidad literaria dividida por el uso de la IA para escribir novelas

Se esperaría encontrar en su lugar una mayor proporción de imágenes más comunes en la web, como fotos de animales o paisajes, lo que resalta aún más el carácter invasivo de este conjunto específico de datos.

Qué responden los modelos de IA

En defensa de sus prácticas, LAION, una ONG detrás del conjunto de datos, hizo declaraciones a Ars Technica que mantienen una política de “tolerancia cero con el contenido ilegal”.

No obstante, reconoció que eliminar estas imágenes comprometedoras es un proceso lento y complejo. Además, una vez que los modelos de IA han sido entrenados con estos datos, es imposible “olvidar” la información absorbida, lo que implica que el daño potencial ya está hecho.

Por el momento, esta alerta pone de relieve la urgente necesidad de establecer regulaciones más estrictas y controles más robustos en la recopilación y uso de datos para el entrenamiento de IA.

La precisión y eficacia de estos modelos no deben lograrse a expensas de la privacidad y los derechos de los individuos, especialmente de los niños, que son un grupo particularmente vulnerable.

No solo se pone en peligro la privacidad de los menores, sino que también, se cuestiona la ética y la legalidad de las prácticas de recopilación de datos de muchos de los modelos de IA actuales.

Con información de Infobae

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email