Cuántas veces vemos discursos de odio en Facebook

Representa al 0,1% del total de los contenidos y en los últimos tres meses significó 22,1 millones de piezas, según la propia red social. Se le suman 19,2 millones de piezas con contenido violento, 12,4 millones con explotación sexual y desnudez infantil, y 3,5 millones con bullying. Cómo se detectan y qué pasa en Instagram.

Facebook detalló por primera vez en un informe el porcentaje de veces que las personas ven contenido infractor dentro de la red social, como ataques directos por orientación sexual o identidad de género, y estimó que entre julio y septiembre “de cada 10.000 visualizaciones de contenido, de 10 a 11 incluyeron discurso de odio”.

Una cifra que equivale a entre 0,10% y 0,11% del contenido que los usuarios ven, pero que adquiere dimensión al considerar que es la plataforma más grande del mundo, con 2.700 millones de usuarios.

La red social se dedicó a medir cuántas piezas dañinas pueden verse en Facebook e Instagram al explicar que la mayoría de las veces el contenido no se distribuye de manera uniforme porque, por ejemplo, un contenido puede volverse viral y ser visto por muchas personas en muy poco tiempo, mientras que otro podría permanecer un largo tiempo en Internet y solo ser visto por pocos usuarios.

Como resultado de su análisis en el tercer trimestre, Facebook detectó 22,1 millones de piezas de discurso de odio; 19,2 millones de piezas de contenido violento y gráfico; 12,4 millones de piezas con contenido de explotación sexual y desnudez infantil; y 3,5 millones de piezas de contenidos de bullying y hostigamiento.

En el caso de Instagram, que suma más de 1.000 millones de usuarios, detectó 6,5 millones de piezas de contenido de discurso de odio; 4,1 millones de piezas de contenido violento y gráfico; 1 millón de piezas de contenido de explotación sexual y desnudez infantil; 2,6 millones de contenidos de acoso e intimidación, y 1,3 millones de piezas de contenidos de suicidio y auto-lesión.

Para revisar estos contenidos la plataforma combinó reportes de usuarios con herramientas de inteligencia artificial (IA), con las cuales “detectó de forma proactiva el 94,7% del lenguaje que incita al odio,una mejora en comparación con el 80,5% de hace un año y con el 24% de 2017”, explicó Mike Schroepfer, director de Tecnología de Facebook.

Así lo explicó la empresa al presentar el Informe trimestral de Cumplimiento de Normas Comunitarias, luego de que Mark Zuckerberg, CEO y fundador, compareciera el martes ante el Senado de Estados Unidos para explicar aspectos vinculados a la moderación de contenidos dentro de Facebook, en una conferencia virtual junto con el CEO de Twitter, Jack Dorsey.

Allí, el senador republicano Lindsey Graham les dijo a ambos directivos: “Parece que ustedes son los editores finales”, cuestionando la distribución de determinadas noticias en ambas plataformas.

Uno de los puntos más álgidos de esa comparecencia fue cuando el senador demócrata Richard Blumenthal le preguntó a Zuckerberg si se comprometería a anular la cuenta de Facebook del exasesor de Donald Trump en la Casa Blanca Steve Bannon, después de que éste pidiera en un video publicó en esa red la “decapitación” de dos altos funcionarios estadounidenses.

“No, senador. Eso no es lo que nuestras políticas sugerirían que deberíamos hacer en este caso”, respondió Zuckerberg, aunque el video sí fue eliminado por la red social.

Facebook explica en su informe que “definir el discurso del odio no es simple, ya que hay muchas opiniones diferentes sobre lo que constituye”, por lo que señala que “los matices, la historia, el idioma, la religión y las cambiantes normas culturales son factores importantes a considerar”.

“Basándonos en los aportes de diversos expertos y líderes a nivel mundial, definimos el discurso de odio como todo lo que ataca directamente a las personas en función de características protegidas, como raza, etnia, nacionalidad de origen, afiliación religiosa, orientación sexual, sexo, género, identidad de género o discapacidad o enfermedad grave”, detalla el documento.

De todas formas, aclara, las nuevas normas sobre contenidos “llaman a la violencia contra migrantes”, “prohiben la negación del holocausto”, y actualizan sus “políticas para tener en cuenta ciertos tipos de incitación implícita al odio, como el contenido que describe la cara negra o estereotipos sobre los judíos que aluden a que controlan el mundo”.

“El lenguaje sigue evolucionando y una palabra que ayer no era un insulto puede convertirse en uno mañana”, resumió Arcadiy Kantor, gerente de producto de Integridad, en una rueda de prensa de la que participó Télam. Y aclaró que se le da prioridad al contenido más crítico para que sea revisado en función de factores como la viralidad, la gravedad del daño y la probabilidad de infracción.

Si bien la inteligencia artificial juega un papel relevante en la revisión de este tipo de contenidos, también ayudan los reportes de usuarios, que se revisan en más de 50 idiomas.

Las personas, según el informe, también suelen informar de contenido “que no les gusta o con el que no están de acuerdo”, pero que “no infringe” sus políticas.

Facebook cuenta con más de 35.000 personas especializadas en seguridad y, según concluyó en el informe, continuará revisando sus políticas para que reflejen las tendencias sociales cambiantes.

 

Por Melisa Avolio, TELAM

Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *