LAION, la organización alemana sin ánimo de lucro que gestiona un conjunto de datos utilizado para entrenar herramientas populares de inteligencia artificial (IA), ha eliminado de su conjunto de datos algunas fotos de niños y niñas que se incluyeron en secreto y se utilizaron indebidamente para alimentar modelos de IA que, a su vez, podrían generar falsificaciones fotorrealistas de otros niños y niñas.
La medida se ha tomado tras el informe del Observatorio de Internet de Stanford publicado en diciembre de 2023, en el que se descubrieron imágenes de abusos sexuales a menores en la base de datos de LAION, así como tras las recientes investigaciones de Human Rights Watch en las que se encontraron fotos personales de niños y niñas australianos y brasileños incluidas en secreto en la base de datos.
El entrenamiento con fotos de niños y niñas reales permite a los modelos de IA crear clones convincentes de cualquier menor. Las imágenes que encontramos en el conjunto de datos de LAION capturaron los rostros y cuerpos de 362 niños y niñas australianos y 358 niños y niñas brasileños sin su consentimiento y se utilizaron para entrenar modelos de IA utilizados para crear falsificaciones de contenido sexual explícito de otros niños y niñas.
LAION confirmó nuestros hallazgos de que las fotos de algunos niños y niñas iban acompañadas de información sensible, que, según informamos, hacía que las identidades de los niños y niñas fueran fácilmente rastreables. Human Rights Watch ha confirmado la eliminación de las fotos de niños y niñas identificadas a LAION de su conjunto de datos recientemente publicado.
La eliminación de estas imágenes por parte de LAION es un paso positivo. Demuestra que es posible eliminar los datos personales de los niños y niñas de los conjuntos de datos de entrenamiento de IA. También reconoce la gravedad del daño infligido a menores cuando sus datos personales se utilizan para dañarlos y dañar a otros de maneras que son imposibles de anticipar o de las que es imposible protegerse, debido a la naturaleza de los sistemas de IA.
Pero sigue habiendo graves problemas. Sólo hemos revisado una pequeña fracción -menos del 0,0001%- del conjunto de datos de LAION, y es probable que haya muchos más niños y niñas identificables cuyas fotos permanezcan en el conjunto de datos. Los modelos de IA que fueron entrenados con el conjunto de datos anterior no pueden olvidar las imágenes ahora eliminadas. Además, Human Rights Watch sólo pudo llevar a cabo esta investigación porque el conjunto de datos de LAION es de código abierto; los conjuntos de datos construidos de forma privada y propiedad de empresas de IA siguen sin examinarse.
Por ello, los gobiernos deberían aprobar leyes que protejan la privacidad de todos los niños y niñas a través de sus datos.
Este mes, el gobierno australiano anunciará si cumple su compromiso de introducir la primera ley de este tipo del país, un Código de Privacidad Infantil. Y el Senado de Brasil deliberará en breve sobre una propuesta de ley que proteja los derechos de los niños y niñas en línea, incluida la privacidad de sus datos.
Se trata de oportunidades excepcionales para proteger de forma significativa a los niños y niñas. Los legisladores deberían aprovecharlas.