Hay una máxima que dice: si no quieres que se filtre una imagen, no la publiques. Pero ¿qué ocurre cuando las fotos o videos son robados y/o publicados sin consentimiento?
“El hombre más odiado de internet” es un doloroso ejemplo de ello. El documental de Netflix que relata la historia de las primeras víctimas de violencia digital, cuando no solo no había herramientas para proteger esta violación a la intimidad, sino cuando no era considerado delito. Pasaron ya 13 años desde la historia de Hunter Moore que da origen a la docuserie, pero aún hay mucho camino para recorrer.
MIRA: Meta planea crear ‘personas IA’ para ayudar a los usuarios en sus plataformas
En primer lugar, saber que la violencia digital no es porno venganza: el origen del contenido no es pornografía y su difusión no es a causa de un daño previo. En segundo, hasta que la legislación local y global agilice los procesos, es de vital importancia conocer herramientas disponibles para proteger el derecho personalísimo a la intimidad.
Con ese fin, Meta, la compañía subsidiaria de Facebook e Instagram, acaba de presentar una herramienta para prevenir que se difunda y viralice un contenido en internet. La iniciativa se llama Take it Down (“bájalo” o “quitálo”, en inglés) y permite a cada persona indicar, de manera privada, qué una foto o video podría haberse publicado sin su consentimiento en internet y eliminar el archivo forma automática. La página fue creada en conjunto con Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos, pero se ofrece a todo el mundo, siguiendo los pasos de la plataforma StopNCII, que ayuda a los adultos a detener la difusión de sus imágenes íntimas en Internet.
MIRA TAMBIÉN: Meta lanza su propia IA llamada LLaMA, pero solo la usarán investigadores
María Cristina Capelo, Líder de Seguridad de Meta para América Latina, explica el largo recorrido de la empresa para lograr una tecnología que analice los millones de metadatos de manera privada y evite la circulación de este contenido en las redes sociales de la empresa: “El 99% de las veces que detectamos cualquier tipo de imagen de explotación sexual infantil, lo hacemos antes de que lleguen a circular en la red. La inteligencia artificial nos permite identificar desnudos en menores y situaciones de abuso. Es un trabajo en constante evolución que venimos haciendo desde hace muchos años”.
Capelo explica cómo evolucionó la herramienta para que los archivos que uno desea subir no salgan nunca del dispositivo original. El sitio trabaja de manera conjunta con dos organizaciones: “Si bien la página es la misma, si un mayor de 18 años quiere subir un archivo es dirigido automáticamente a la plataforma, con recursos para víctimas de abusos de imágenes íntimas no consensuadas. Si es menor de 18, el sitio Take it down se encarga del proceso automático”.
MIRA: ¿Qué ofrecerán las nuevas suscripciones de pago de Facebook e Instagram?
Este sistema, además, utiliza tecnología de código abierto desarrollada por Meta que es puesta a disposición de empresas y organizaciones que deseen sumarse a la iniciativa. Por el momento, forman parte de “Take It Down” Facebook, Instagram, OnlyFans y la plataforma Yubo.
Cómo funciona Take it Down
La propuesta requiere muy pocos pasos. En la página, se invita a indicar la edad del denunciante anónimo, y luego se puede proceder a cargar las imágenes o videos en cuestión. Se pueden subir hasta 10 archivos por vez, pero si es necesario, se vuelve a repetir la carga con otra consulta. Una vez finalizado cada proceso, el usuario recibe un número de caso que posteriormente puede ser usado para hacer el seguimiento del mismo.
El sitio también aporta recursos para niños, niñas, adolescentes y adultos que hayan sido víctimas de filtraciones de imágenes, tanto en Estados Unidos como en toda la región.
MIRA TAMBIÉN: Siguen los pasos de Twitter: Facebook e Instagram lanzan suscripción para verificar cuentas
“Desde Meta trabajamos con varias organizaciones de América Latina, que a su vez trabajan con escuelas. Desafortunadamente, hay muchos chiquitos que aunque no tengan acceso a las redes están experimentando sacarse sus primeras fotos, que no necesariamente tienen que ver con casos de explotación, pero que sí pueden poner en peligro su intimidad”, agrega Capelo, e indica que el próximo paso va a ser trabajar con organizaciones locales que ya dan ayuda a niñas, niños y adolescentes para que los recursos estén más visibles.
En el último trimestre del 2022, Facebook detectó 25,2 millones de contenidos relacionados con peligro infantil y explotación sexual. En el caso de contenido de adultos, la organización StopNCII.org, a través de línea de Ayuda de Revenge Porn (RPH), eliminó más de 200.000 imágenes íntimas individuales no consentidas de Internet.
GDA / La Nación / Irina Sternik / Argentina
TE PUEDE INTERESAR
- Oppo Find N2 Flip, el teléfono plegable tipo sapito es la gran apuesta de la firma
- Lima Major 2023: así van las llaves de los playoffs del torneo de Dota 2
- MWC 2023: Oppo Air Glass 2, uno lentes de realidad asistida para traducir en tiempo real y ver GPS
- Honor: “Los usuarios en Perú y América Latina se han sofisticado en los últimos años”
Contenido sugerido
Contenido GEC