Ciencia y Tecnología

WSJ: ‘Reels’ de IG muestra imágenes atrevidas de niños y videos sexuales para adultos

Samantha Stetson, representante de Meta, dijo que los resultados de la investigación "se basan en una experiencia fabricada".
sábado, 02 diciembre 2023
Cortesía | El medio habla de "una mezcla de pornografía para adultos y material de sexualización infantil"

Una investigación de Wall Street Journal ha revelado que el algoritmo detrás del servicio ‘Reels’ de Instagram recomienda “dosis discordantes de contenido lascivo” que contiene “imágenes atrevidas de niños y videos abiertamente sexuales para adultos”.

Después de que los periodistas de WSJ se fijaran en que una gran mayoría de los suscriptores de las cuentas de jóvenes gimnastas, porristas y otros ‘influencers’ adolescentes y preadolescentes eran hombres adultos —algunos de los cuales también habían demostrado interés en contenido sexual relacionado tanto con niños como con adultos—, el medio decidió investigar qué tipo de contenido sugeriría la plataforma a los seguidores de estos menores.

Material de sexualización infantil

Durante la investigación, los periodistas crearon varias cuentas en Instagram y se suscribieron a dichos ‘influencers’, lo que les llevó a ver una gran cantidad de videos de contenido lascivo, entremezclado con anuncios de algunas de las marcas más importantes de EEUU.

Por ejemplo, un anuncio que promocionaba una aplicación de citas estaba intercalado entre un video de alguien acariciando una “muñeca de látex de tamaño natural” y otro clip de una niña exponiendo su abdomen.

En otros casos, ‘Reels’ mostró un comercial de Pizza Hut junto a un clip de un hombre acostado en la cama con una niña de 10 años, mientras que un anuncio de Walmart se mostró junto a un video de una mujer que exponía su entrepierna.

Después de que los periodistas de WSJ decidieron profundizar su investigación y se suscribieron a las cuentas de esos hombres adultos que seguían cuentas de menores de edad, los videos de ‘Reels’ se volvieron aún más inquietantes.

Así, el medio afirma que el algoritmo de Instagram les mostraba “una mezcla de pornografía para adultos y material de sexualización infantil, como un video de una niña vestida acariciando su torso y otro de un niño haciendo una pantomima de un acto sexual”.

Respuesta de Meta

Samantha Stetson, vicepresidenta del Consejo de Clientes y Relaciones Comerciales con la Industria de Meta, la empresa matriz de Instagram, dijo a Fox News que los resultados de la investigación de WSJ “se basan en una experiencia fabricada que no representa lo que miles de millones de personas en todo el mundo ven todos los días cuando utilizan” los productos y servicios de la compañía.

Además, añadió que Meta rechaza este tipo de contenido en sus plataformas y las marcas no quieren que sus anuncios aparezcan junto a él.

Stetson aseguró que los sistemas de seguridad de Meta para reducir el contenido dañino “son eficaces” y que la compañía invierte “agresivamente para detenerlo”, mientras informa “cada trimestre sobre la prevalencia de dicho contenido, que sigue siendo muy baja”.

Ten la información al instante en tu celular. Únete al grupo de Diario Primicia en WhatsApp a través del siguiente linkhttps://chat.whatsapp.com/CXCN36jl0Mw10yuh3hanrd

También estamos en Telegram como @DiarioPrimicia, únete aquí: https://t.me/diarioprimicia

Lea También:
Publicidad
Publicidad
Publicidad
error: