Es noticia
Así ofrece Instagram contenido sexualizado a usuarios de 13 años
  1. Mercados
  2. The Wall Street Journal
fallo en el algoritmo

Así ofrece Instagram contenido sexualizado a usuarios de 13 años

Los hallazgos coinciden con investigaciones internas no reveladas de Meta, que ha prometido un servicio "apropiado para la edad" de los adolescentes

Foto: EC Diseño.
EC Diseño.
EC EXCLUSIVO Artículo solo para suscriptores

Instagram recomienda con regularidad vídeos sexuales a las cuentas de adolescentes que parecen interesadas en contenidos subidos de tono, y lo hace a los pocos minutos de que se conecten por primera vez, según las pruebas realizadas por The Wall Street Journal y un investigador académico.

Las pruebas, realizadas a lo largo de siete meses que finalizaron en junio, demuestran que la red social ha seguido ofreciendo contenidos para adultos a los menores después de que la empresa matriz Meta Platforms dijera en enero que estaba dando a los adolescentes una experiencia más adecuada a su edad restringiendo lo que denomina contenido sensible, incluido el material sexualmente sugerente.

Foto: El logo de Meta AI, encargada del desarrollo de la inteligencia artificial. (Reuters/Dado Ruvic)

Otras pruebas realizadas por el Journal y Laura Edelson, profesora de informática de la Universidad Northeastern, utilizaron una metodología similar, consistente en crear nuevas cuentas con una edad de 13 años. A continuación, las cuentas accedían al flujo de vídeos seleccionados de Instagram, conocidos como "reels".

Instagram ofrecía una mezcla de vídeos que, desde el principio, incluían contenidos subidos de tono, como mujeres bailando de manera sugerente o posando en posturas que realzaban sus pechos. Cuando las cuentas se saltaban otros clips, pero veían esos vídeos sexuales hasta el final, en los reels aparecían contenidos cada vez más fogosos.

Instagram ofrecía una mezcla de vídeos que incluían contenidos subidos de tono

Los creadores de contenido sexual para adultos empezaron a aparecer en apenas tres minutos. Tras menos de 20 minutos viendo reels, los contenidos de las cuentas de prueba estaban dominados por promociones de dichos creadores, algunos de los cuales ofrecían enviar fotos de desnudos a los usuarios que interactuaran con sus publicaciones. Otras pruebas similares en los vídeos cortos de Snapchat y TikTok no produjeron el mismo contenido sexualizado para usuarios menores de edad.

"Las tres plataformas también señalan que hay diferencias en el contenido que se recomienda a los adolescentes", explica Edelson. "Pero incluso la experiencia para adultos en TikTok parece tener mucho menos contenido explícito ​que la experiencia para adolescentes en los reels". Meta descartó que los resultados de la prueba fueran representativos de la experiencia general de los adolescentes. "Se trataba de un experimento artificial que no se ajusta a la realidad de cómo los adolescentes utilizan Instagram", declaró el portavoz Andy Stone.

Foto: Usuaria de Instagram (PEXELS/Lisa Fotios)

Stone indicó que la empresa sigue esforzándose por evitar que sus sistemas recomienden contenidos inapropiados a los menores. "Como parte de nuestro largo trabajo en cuestiones juveniles, establecimos un esfuerzo para reducir aún más el volumen de contenido sensible que los adolescentes podrían ver en Instagram, y hemos reducido significativamente estas cifras en los últimos meses", dijo.

La mayor parte de las pruebas realizadas por Edelson y el Journal tuvieron lugar entre enero y abril. Una prueba adicional realizada por el Journal en junio detectó que los problemas continuaban. Media hora después de su creación, una nueva cuenta de prueba de 13 años que solo veía vídeos recomendados por Instagram en los que aparecían mujeres empezó a recibir un vídeo tras otro sobre sexo anal.

Autoevaluación

Pruebas internas y análisis realizados por empleados de Meta han identificado problemas similares, según empleados actuales y antiguos y documentos revisados por el Journal que forman parte de una investigación de la compañía no revelada anteriormente sobre las experiencias perjudiciales de los jóvenes adolescentes en Instagram. En 2021, el personal de seguridad de la empresa realizó pruebas similares a las de Edelson y el Journal, y llegó a resultados comparables, según antiguos empleados.

Otro análisis interno de 2022 revisado por el Journal descubrió que Meta sabe desde hace tiempo que Instagram muestra más pornografía, gore y discursos de odio a los usuarios jóvenes que a los adultos. Los adolescentes en Instagram informaron de su exposición a la intimidación, la violencia y la desnudez no deseada en porcentajes más altos que los usuarios adultos en las encuestas realizadas por la empresa, y las estadísticas de la compañía confirmaron que la plataforma era desproporcionadamente propensa a ofrecer a los niños contenidos que violaban las reglas de la misma.

Foto: La función de Instagram que debes activar para evitar que usen tus fotos a la hora de entrenar a la IA (nensuria para Freepik)

Los adolescentes vieron tres veces más publicaciones prohibidas con desnudos, 1,7 veces más violencia y 4,1 veces más contenido de acoso que los usuarios mayores de 30 años, según el análisis interno de 2022. Según el documento, los esfuerzos automatizados de Meta para evitar que los adolescentes recibieran este tipo de contenidos eran a menudo demasiado débiles como para resultar eficaces.

La forma más eficaz de evitar que se ofrezcan contenidos inapropiados a usuarios menores de edad sería crear un sistema de recomendación totalmente independiente para adolescentes, sugería el documento. Meta no ha seguido esta propuesta. Algunos altos ejecutivos, incluido el jefe de Instagram Adam Mosseri, han expresado su preocupación por la exhibición desproporcionada de contenido para adultos y otros materiales violentos a los niños, de acuerdo con el personal de la empresa.

Los esfuerzos automatizados de Meta para evitar que los adolescentes recibieran contenidos inapropiados han sido demasiado débiles

Los algoritmos de los reels funcionan, en parte, detectando los intereses de los usuarios en función de los vídeos que ven durante más tiempo que otros y recomendando contenidos similares. Meta tiene políticas que regulan estos sistemas de recomendación. Según sus directrices, los contenidos sexualmente sugerentes no deben recomendarse a usuarios de cualquier edad a menos que provengan de cuentas que hayan elegido específicamente seguir.

Según el anuncio de Meta de enero, los adolescentes menores de 16 años no deben recibir ningún tipo de contenido sexual explícito. En más de una docena de pruebas realizadas manualmente por el Journal y Edelson, del Northeastern, las cuentas de menores no seguían a nadie ni buscaban nada, para evitar actividades que pudieran influir en las recomendaciones de contenidos de Instagram. En cuanto se crearon, las cuentas empezaron a ver reels. Los clips iniciales mostraban vídeos de humor, coches o acrobacias, así como imágenes de personas que sufrían algún tipo de lesión o caída. Las cuentas de prueba ignoraron esos vídeos.

Foto: Ya es posible descargar 'reels' de Instagram (Pexels/Kerde Severin)

En cambio, sí vieron vídeos recomendados por Instagram en los que aparecía una mujer bailando o posando de una forma que podría interpretarse como sexualmente sugerente. No le daban "like" a ningún vídeo, ni lo guardaban ni hacían clic en él. Al cabo de poco tiempo, Instagram dejó de recomendar los vídeos cómicos y de acrobacias para ofrecer a las cuentas de prueba un flujo constante de vídeos en los que las mujeres hacían gestos sexuales, describían gráficamente su anatomía o se acariciaban al ritmo de música con letras provocativas.

En un vídeo que Instagram recomendó a una cuenta de prueba identificada con una edad de 13 años, una mujer adulta prometía enviar una foto de su "gran delantera" por mensaje directo a cualquiera que comentara su vídeo. Otra mostró sus genitales a la cámara. En otras ocasiones, en días posteriores, se produjo la misma mezcla de contenido sexual, junto con anuncios de grandes marcas.

Cómo funcionan TikTok y Snapchat

Los algoritmos de TikTok y la función de vídeo "Spotlight" de Snapchat se basan en principios similares a los de los reels.

Se supone que funcionan filtrando miles de millones de vídeos y eliminando los que no superan determinadas pruebas de calidad, los que se considera que tienen contenidos "no recomendables" o los que no tienen sentido según el idioma, la edad o la geografía del usuario. A continuación, los sistemas hacen recomendaciones personalizadas entre los vídeos restantes en función de la probabilidad prevista de que el usuario los vea.

A pesar de la mecánica similar de sus sistemas, ni TikTok, ni Snapchat recomendaron a las cuentas de adolescentes recién creadas vídeos de contenido sexual que sí recomendó Meta, según las pruebas realizadas por el Journal y Edelson.

A pesar de tener sistemas similares, ni TikTok ni Snapchat recomendaron este tipo de vídeos

En TikTok, las cuentas de prueba nuevas con edades adultas que veían vídeos subidos de tono hasta el final empezaron a recibir más contenido de ese tipo. Sin embargo, las cuentas de prueba de adolescentes que se comportaban de forma idéntica casi nunca recibían ese tipo de material, ni siquiera cuando buscaba, seguía y le daba like de forma activa a vídeos de creadores de contenido sexual para adultos.

Un ingeniero de TikTok atribuyó la diferencia tanto a unas normas de contenido más estrictas para los usuarios menores de edad como a una mayor tolerancia a los falsos positivos a la hora de restringir las recomendaciones. "Pecamos de precavidos", declaró un portavoz de TikTok, añadiendo que los adolescentes tienen acceso a un conjunto de contenidos más limitado.

Foto: La princesa en la coronación del rey Carlos. (Reuters)

En las pruebas de Edelson en Instagram, tanto las cuentas de prueba de adultos como las de adolescentes siguieron recibiendo vídeos de creadores de contenidos para adultos en porcentajes similares, lo que sugiere una diferenciación mucho menor. En algunos casos, Instagram recomendó a las cuentas de adolescentes ver vídeos que la plataforma ya había etiquetado como "perturbadores".

Meta explicó que, por definición, los contenidos etiquetados como "perturbadores" y ocultos tras una pantalla de advertencia no deberían mostrarse a los niños. Stone atribuyó el resultado a un error, y dijo que Meta ha desarrollado más de 50 herramientas y recursos para ayudar a apoyar a los adolescentes y sus padres en sus plataformas.

Debate interno

Los responsables de Meta se han planteado cómo abordar el problema de la exposición a contenidos inapropiados para los menores. En una reunión celebrada a finales del año pasado, los máximos responsables de seguridad debatieron si bastaría con reducir la frecuencia con la que los menores ven contenidos prohibidos al nivel al que lo hacen los adultos.

Mosseri, el responsable de Instagram, afirmó en la reunión que alcanzar la paridad no sería suficiente dadas las declaraciones públicas de Meta sobre la seguridad de los adolescentes en sus plataformas, según personas al corriente de sus comentarios. Esa reunión sentó las bases para el anuncio de Meta en enero de que automáticamente pondría a los adolescentes en su configuración de contenido más restrictiva para evitar recomendar contenido sexualmente sugerente o problemático. Queda por ver el éxito de esta iniciativa.

Foto: Mark Zuckerberg, en un evento de Meta sobre IA (Reuters/Carlos Barria)

En la segunda mitad del año pasado, los abogados de Meta, incluida la consejera general Jennifer Newstead, también empezaron a argumentar ante los altos directivos de la empresa que los problemas de seguridad infantil en Facebook e Instagram planteaban riesgos legales y normativos infravalorados, según los miembros actuales y anteriores del personal de seguridad infantil de Meta.

Los empleados comentaron que Meta ha ampliado hace poco sus inversiones en materia de seguridad infantil tras años de presupuestos ajustados, un mayor escrutinio de sus esfuerzos por parte de funcionarios públicos y recomendaciones de su departamento jurídico.

*Contenido con licencia de The Wall Street Journal. Traducido por Federico Caraballo

Instagram recomienda con regularidad vídeos sexuales a las cuentas de adolescentes que parecen interesadas en contenidos subidos de tono, y lo hace a los pocos minutos de que se conecten por primera vez, según las pruebas realizadas por The Wall Street Journal y un investigador académico.

Wall Street Journal Instagram Social
El redactor recomienda