
Las nuevas funciones de WhatsApp estarán solo en la pestaña de novedades y separadas de los chats personales
Según una investigación de Human Rights Watch, ha revelado que un conocido conjunto de datos utilizado para entrenar modelos de IA, contiene imágenes de menores que violan gravemente su privacidad
Tecnología Sala de redacciónVídeo: DW Español
Human Rights Watch (HRW) ha lanzado una dura advertencia sobre un nuevo problema relacionado con la inteligencia artificial (IA) y sus implicaciones sobre los derechos y libertades de los niños. Una investigación ha puesto de manifiesto que el conjunto de datos LAION-5B, ampliamente utilizado para el entrenamiento de modelos de IA, contiene imágenes de menores que violan gravemente su privacidad.
A principios de año, Hye Jung Han, investigadora de HRW reportó a Wired, que identificó que el conjunto de datos LAION-5B incluía 170 fotos de niños brasileños. Las imágenes fueron obtenidas principalmente de blogs personales, redes sociales y videos con escasa visibilidad en YouTube.
Esto es de suma gravedad porque los términos de servicio de YouTube prohíben la recopilación de datos personales sin el consentimiento adecuado, lo que evidencia un ataque directo a estas políticas.
En un hallazgo aún más reciente, se encontró otras 190 imágenes de niños australianos, incluidas fotos de recién nacidos y niñas en bañador durante un carnaval. Estas imágenes fueron compartidas originalmente bajo estrictas medidas de privacidad, en blogs personales o en redes sociales con acceso limitado.
Algunas incluso provenían de fotógrafos profesionales contratados por familias o instituciones educativas para eventos específicos. La presencia de estas fotos en el conjunto de datos plantea serias preocupaciones sobre la falta de control y autorización en la recopilación de datos personales.
Asimismo, una de las preocupaciones más graves destacadas por HRW es que, las URLs de estas imágenes a menudo contienen información sensible, como nombres y ubicaciones específicas.
Por ejemplo, una imagen etiquetada con detalles precisos permitió a los investigadores obtener los nombres completos y la guardería frecuentada por dos niños en Perth, Australia. Esta capacidad para extraer información privada de imágenes supuestamente seguras reflejan la vulnerabilidad a la que están expuestos los menores en la era digital.
Estas imágenes son extremadamente difíciles de localizar mediante búsquedas en línea regulares, lo que indica que los padres y cuidadores han tomado medidas deliberadas para proteger la privacidad de los niños.
Sin embargo, las herramientas y técnicas utilizadas para crear conjuntos de datos masivos como LAION-5B han ignorado estas medidas, exponiendo la privacidad de los menores a un riesgo considerable.
HRW ha señalado que su equipo solo pudo revisar una fracción mínima del conjunto de datos, menos del 0,0001 % de sus 5.850 millones de imágenes. Los investigadores se sorprendieron por la cantidad de fotos personales de niños que encontró incluso en una muestra aleatoria.
Se esperaría encontrar en su lugar una mayor proporción de imágenes más comunes en la web, como fotos de animales o paisajes, lo que resalta aún más el carácter invasivo de este conjunto específico de datos.
En defensa de sus prácticas, LAION, una ONG detrás del conjunto de datos, hizo declaraciones a Ars Technica que mantienen una política de “tolerancia cero con el contenido ilegal”.
No obstante, reconoció que eliminar estas imágenes comprometedoras es un proceso lento y complejo. Además, una vez que los modelos de IA han sido entrenados con estos datos, es imposible “olvidar” la información absorbida, lo que implica que el daño potencial ya está hecho.
Por el momento, esta alerta pone de relieve la urgente necesidad de establecer regulaciones más estrictas y controles más robustos en la recopilación y uso de datos para el entrenamiento de IA.
La precisión y eficacia de estos modelos no deben lograrse a expensas de la privacidad y los derechos de los individuos, especialmente de los niños, que son un grupo particularmente vulnerable.
No solo se pone en peligro la privacidad de los menores, sino que también, se cuestiona la ética y la legalidad de las prácticas de recopilación de datos de muchos de los modelos de IA actuales.
Con información de Infobae
Las nuevas funciones de WhatsApp estarán solo en la pestaña de novedades y separadas de los chats personales
En EEUU, varios investigadores han alertado sobre el auge de las aplicaciones que usan IA para desnudar a personas sin su consentimiento que se pueden encontrar en línea, en las tiendas de aplicaciones y en la plataforma publicitaria de Meta
Con las nuevas actualizaciones, la IA de Apple podrá traducir en vivo con subtítulos llamadas y mensajes o ser un entrenador personal que anima al usuario cuando corre
Tanto a José Luis Ábalos como a Koldo García se les investiga por delitos como organización criminal, cohecho y tráfico de influencias
Los nuevos abonos se podrán adquirir exclusivamente en taquillas y máquinas autoventa de Renfe
El presidente del Gobierno ha subrayado que el PSOE actuó con «contundencia» con Santos Cerdán, y ahora, ha dicho, es la justicia la que tiene que dirimir sus responsabilidades
Los expertos advierten que las olas de calor serán cada vez más frecuentes e intensas debido al cambio climático
Europa Press detalla los planes únicos al abordar el tren de Artouste, el tren de la Rhune y el Tren Amarillo para explorar el Pirineo francés
Cuando la exposición a la radiación solar representa un riesgo muy alto para la salud, es crucial tomar precauciones
La Policía Nacional confirmó el pasado 19 de junio que había abierto una investigación por una primera filtración en un canal de Telegram que apuntaba a un hacker como autor, lo que derivó a la apertura de diligencias en la Audiencia Nacional
La torre Eiffel en París se ha visto afectada por la ola de calor que azota a Europa, ya que el lunes por la tarde se decidió el cierre de su último piso -el tercer nivel, situado a 276 metros de altura- a las visitas hasta el 2 de julio