Recientemente, se ha desatado una polémica tras descubrirse que fotografías de menores están siendo utilizadas sin autorización para entrenar modelos de inteligencia artificial. Un informe de Human Rights Watch ha revelado que datasets como LAION-5B, empleados para entrenar generadores de imágenes como Stable Diffusion, contienen más de 170 fotos de niños brasileños. Estas imágenes, algunas con información personal detallada como nombres y lugares de nacimiento, han sido obtenidas sin el consentimiento de los padres.
El uso de estas fotos representa una grave violación de la privacidad de los menores. Las imágenes pueden ser manipuladas para crear deepfakes realistas, lo que expone a los niños a riesgos significativos, incluyendo la creación de material de abuso sexual infantil falso. Este descubrimiento subraya los peligros de compartir fotos de menores de forma pública, ya que incluso contenido publicado en blogs personales o videos de YouTube con pocas visitas puede ser explotado para fines no autorizados.
El problema es más extenso de lo que parece. Human Rights Watch revisó menos del 0.0001% del dataset, lo que sugiere que miles de imágenes de menores podrían estar siendo utilizadas sin permiso. La organización detrás del dataset, LAION, ha confirmado la eliminación de las fotos señaladas, pero es necesario realizar auditorías exhaustivas y establecer normativas estrictas para proteger la privacidad de los niños en el entorno digital.
La situación destaca la importancia de que padres, tutores y la comunidad en general comprendan los riesgos de compartir fotos de menores en plataformas públicas, incluso en eventos grupales en colegios. Es crucial aumentar la conciencia pública sobre la seguridad digital y promover prácticas seguras para evitar la explotación de imágenes de menores. Las autoridades deben imponer medidas regulatorias más estrictas para asegurar que los modelos de IA se desarrollen de manera ética y legal, protegiendo así a los más vulnerables de la sociedad.