por Portaluz
27 Diciembre de 2024En 2022 el documental "Sextortion: The Hidden Pandemic" puso de relieve a los depredadores que se mueven en el universo cibernético mediante perfiles falsos, en los cuales se presentan como niños o adolescentes. Delincuentes cuyo objetivo es seducir y extorsionar con fines de explotación sexual a niñas y niños, en su mayoría de 8 a 16 años, que se topan con esos perfiles falsos en sus dispositivos, mientras están en sus habitaciones, en el asiento trasero de los autos de sus padres o incluso en la escuela.
El documental sigue el caso federal del piloto de la Marina de los Estados Unidos Daniel Harris, quien fue condenado por atacar a niñas jóvenes haciéndose pasar por un adolescente en las redes sociales.
Los depredadores, se conectan con los adolescentes pareciendo empáticos con sus problemas, centrándose en experiencias que dicen que supuestamente comparten, como peleas con los padres. Una vez que han establecido una conexión, piden fotos. Luego amenazan al adolescente con que compartirán esas fotos con sus padres y las publicarán en Facebook o etiquetarán a sus amigos si no siguen sus instrucciones: enviar más fotos, chatear por video, desnudarse y más aberraciones.
El aprovechamiento de la IAG
La Inteligencia Artificial Generativa (IAG) ha revolucionado la forma en que interactuamos con la tecnología, ofreciendo herramientas y soluciones innovadoras. Sin embargo, esta tecnología también presenta riesgos significativos, especialmente para los niños. En el National Center for Missing and Exploited Children - Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) de Estados Unidos, monitorean los usos que los depredadores hacen de la IAG para mejorar las estrategias de sextorsión y tantos otros daños a niños y adolescentes.
En los últimos dos años, la CyberTipline del NCMEC ha recibido más de 7,000 informes relacionados con la explotación infantil mediante el uso de la Inteligencia Artificial Generativa. Estos informes representan solo los casos de los que se tiene conocimiento, y es probable que haya muchos más no reportados o no identificados. A medida que esta tecnología se vuelve más omnipresente los números aumentarán.
Y es que la Inteligencia Artificial Generativa (IAG) facilita la creación de imágenes y videos falsos, que potencian la sextorsión y otras formas de explotación sexual infantil. Los depredadores con facilidad pueden robar las imágenes personales de un niño para con su rostro recrear una imagen falsa de desnudos o intimidad sexual y luego con este material extorsionar a las víctimas o directamente venderlas a consumidores pedófilos. Estas creaciones causan un daño tremendo a los niños por el acoso, la explotación, el miedo, la vergüenza y angustia emocional. Incluso aunque las imágenes sean totalmente inventadas, el daño a los niños y sus familias es muy real.
Dar juntos la batalla
Los riesgos no se detienen en las imágenes. La IAG se está utilizando para manipular a los niños de otras maneras, como la generación de mensajes de texto realistas que los depredadores utilizan para preparar o explotar a las víctimas. Los delincuentes incluso han aprovechado la IAG en casos de sextorsión, para obligar a los niños a proporcionar contenido adicional o dinero. La sextorsión financiera es una amenaza creciente, y las herramientas de la IAG facilitan que los delincuentes se dirijan a los niños.
Estas tecnologías representan una nueva frontera de la explotación infantil, que requiere soluciones proactivas y acción colectiva. Si te encuentras con algún caso de explotación sexual infantil creado por IAG, aquí te explicamos cómo puedes obtener ayuda:
- Informe a CyberTipline: Si te has encontrado con contenido de explotación sexual infantil, incluido el contenido creado con IAG, repórtalo a la línea CyberTipline del NCMEC. Su informe ayuda a conectar a las víctimas con los recursos y garantiza que las fuerzas del orden aborden los incidentes.
- Utilice el programa Take It Take It del NCMEC: Si una imagen sexualmente explícita de ti o de alguien que conoces, ya sea real o creada por IAG, está circulando en línea, Take It Down puede ayudarte. Esta herramienta permite a las personas solicitar de forma anónima la eliminación de imágenes explícitas de las plataformas participantes y las empresas de redes sociales.
- Trabaje con el personal de su escuela: Para las escuelas, abordar los riesgos de la tecnología IAG requiere códigos de conducta claros, planes sólidos de respuesta a incidentes y una capacitación integral para que los educadores reconozcan, prevengan y respondan a incidentes que involucren explotación o abuso generado por IA. Empoderar a las comunidades escolares con estas herramientas es fundamental para crear un entorno seguro para los niños.
- Aprenda y comparta recursos: La educación es clave para la prevención. El programa NetSmartz del NCMEC proporciona herramientas y recursos para que los padres, educadores y niños entiendan y naveguen por los riesgos de la IAG. Visite NetSmartz para acceder a hojas de consejos, planes de lecciones y más.
El aumento de la explotación sexual infantil es un desafío que no podemos ignorar. Al denunciar incidentes, apoyar a las víctimas y educarnos, podemos luchar contra estos usos nocivos de la tecnología, contra los delincuentes, para proteger a los niños y adolescentes de todo el mundo.
Fuentes: Police1.com, Missingkids.org, DW.com