Skip to main content

El uso de la IA para luchar contra la trata es peligroso

Los modelos lingüísticos basados en estereotipos agravarán los daños

© Shutterstock/Syda Productions

El Departamento de Estado de EE.UU. publicó su informe anual sobre la trata de personas, en el que clasifica los esfuerzos de casi 200 países en la lucha contra la trata.

El informe concluye que los delincuentes utilizan cada vez más "las redes sociales, los anuncios en línea, los sitios web, las aplicaciones de citas y las plataformas de juegos" para forzar, estafar o presionar a los solicitantes de empleo a la explotación laboral y sexual, y anima a las empresas tecnológicas a utilizar "herramientas de datos y algoritmos para detectar patrones de trata de seres humanos, identificar actividades sospechosas e ilícitas e informar de ellas" a las fuerzas de seguridad.

Los llamamientos generalizados para recopilar datos sobre poblaciones marginadas y automatizar las decisiones sobre lo que constituye un patrón de trata de seres humanos son peligrosos. Las mujeres de color, los migrantes y las personas queer se exponen a la elaboración de perfiles y a la persecución bajo regímenes de vigilancia que no distinguen entre el trabajo sexual consentido de adultos y la trata de seres humanos.

El informe TIPs afirma que los modelos lingüísticos de inteligencia artificial (IA), pueden "detectar, traducir y categorizar palabras clave utilizadas por los traficantes para identificar patrones de comunicación de la trata". Por desgracia, es probable que los modelos lingüísticos se basen en estereotipos discriminatorios que han plagado los esfuerzos contra la trata durante décadas.

Una campaña del Departamento de Seguridad Nacional, por ejemplo, da instrucciones a los hoteles para que instruyan al personal de limpieza a denunciar "señales de trata de seres humanos" basadas en indicadores que confunden el trabajo sexual con la trata. 

Las víctimas supuestamente solicitan "toallas adicionales", "esperan en una mesa o en un bar a que las recojan", "visten de forma inapropiada", "alquilan habitaciones por horas" y recogen dinero en efectivo " que dejan en las mesas". 

Estos estereotipos provocan una vigilancia desproporcionada sobre las trabajadoras del sexo de bajos recursos, de grupos raciales y transexuales, y categorizan erróneamente las tácticas de seguridad habituales -primeros encuentros en público, higiene, evitar pagos rastreables- como indicadores de trata.

Los estudios demuestran que las plataformas y las políticas digitales que adoptan un enfoque excesivamente amplio para recopilar pruebas de presunta explotación en línea son peligrosas y contraproducentes. 

Según un informe de 2024, las plataformas están "incentivadas para denunciar en exceso" el posible material de abuso sexual infantil (CSAM, por sus siglas en inglés), lo que deja a las fuerzas de seguridad "abrumadas por el gran volumen" e incapaces de identificar a los autores. 

Un estudio de 2022 sobre tecnología que rastreaba y analizaba anuncios de servicios sexuales reveló "desajustes entre los desarrolladores, los usuarios de la plataforma y los trabajadores de la industria del sexo a los que intentan ayudar", concluyendo que estos enfoques son "ineficaces" y "exacerban el daño".

Los supervivientes de la trata, por su parte, han advertido de que "los datos sobre la trata son limitados y notoriamente inexactos [y] datos erróneos significan un mal aprendizaje". 

Subcontratar a un algoritmo para que detecte y denuncie "actividades sospechosas e ilícitas" es una receta para perpetuar la violencia y la discriminación contra personas ya marginadas.

 

 

 

 

Your tax deductible gift can help stop human rights violations and save lives around the world.

Región / País

Las más vistas