En esta ilustración fotográfica, la imagen de Elon Musk se muestra en la pantalla de una computadora y el logotipo de Twitter en un teléfono móvil en Ankara, Turkiye, el 6 de octubre de 2022.
Muhammed Selim Korkutata | Agencia Anadolu | imágenes falsas
Cuando el CEO de Tesla y SpaceX, Elon Musk, se hizo cargo de Twitter y se presentó en la sede el 27 de octubre de 2022, los trolls e intolerantes en línea irrumpieron en la red social, contaminándola con una avalancha de epítetos racistas y otros discursos. de odio
Pero un nuevo estudio del Network Contagion Research Institute (NCRI) sin fines de lucro y Rutgers encuentra que el equipo de seguridad de Twitter respondió mejor a esa “redada” que la compañía a un evento similar en abril de 2022.
Según el director ejecutivo de NCRI, Adam Sohn, una redada es cuando los malos actores en línea participan en una actividad coordinada para tratar de interrumpir las plataformas de redes sociales, generalmente para dañar a las personas marginadas o a objetivos específicos.
GamerGate es probablemente la incursión más infame y tuvo lugar alrededor de 2014 cuando los trolls de 4Chan que formaban parte de la comunidad de jugadores lanzaron ataques misóginos contra mujeres que estaban en la industria. Se dirigieron específicamente a una crítica que había hablado sobre tropos sexistas en los juegos. Su campaña tuvo lugar en innumerables plataformas sociales, incluidas Twitter y Reddit, y se manifestó en violaciones y amenazas de muerte en el mundo real, y una amenaza de bomba dirigida al crítico.
También se sabe que las comunidades en línea impulsadas por conspiraciones utilizan tácticas de asalto.
Algunas personas se involucran en las llamadas actividades “no auténticas” en las redes sociales solo para ver si pueden salirse con la suya. (“para el lulz”).
El analista del NCRI, Alex Goldenberg, dice que si bien la acción de Twitter en respuesta al discurso de odio de la semana pasada fue efectiva, la empresa también podría haberla previsto y evitado.
Horas antes de la avalancha de discursos de odio, dijo: “Evaluamos que esta campaña de trolls en línea en particular estaba siendo impulsada por una actividad no auténtica coordinada que se originó específicamente en 4Chan. Allí, detectamos un aumento en las menciones de n-slur junto con las menciones de Twitter”.
El NCRI utiliza sofisticados sistemas y software de aprendizaje automático para monitorear grandes cantidades de contenido de las redes sociales y rastrear el odio y las amenazas crecientes contra grupos marginados en línea, incluidos negros, judíos, hindúes y musulmanes.
Pone a disposición herramientas de investigación y publica informes, recomendaciones de seguridad y advertencias, a veces enviándolos directamente a las redes sociales, sobre dónde están aumentando las amenazas y es probable que se extiendan al mundo físico. Según Sohn, la esperanza del NCRI es utilizar esta información para evitar daños en el mundo real a causa de estos esfuerzos en línea.
El NCRI pudo pronosticar previamente un aumento de la violencia contra los estadounidenses de origen asiático cuando surgió la pandemia de Covid e identificó una amenaza inminente de un grupo antigubernamental (Boogaloo Boys) contra el personal encargado de hacer cumplir la ley. También advirtieron sobre el surgimiento de comunidades que fomentan las autolesiones, principalmente cortarse, en Twitter.
Lo que NCRI encontró esta vez
El NCRI descubrió que dentro de las 12 horas posteriores a la llegada de Musk a la sede de Twitter, el uso de un epíteto anti-negro (la palabra n) en la red social aumentó casi un 500% con respecto al promedio anterior. NCRI publicó este estudio rápido a la mañana siguiente, cuando se cerró oficialmente el trato con Musk.
Para el nuevo estudio, el NCRI analizó datos históricos. La firma descubrió que cuando Musk reveló por primera vez que había aceptado comprar Twitter por 54,20 dólares la acción en abril de 2022, se había producido una redada similar.
Al comparar los dos eventos, el NCRI descubrió que esta vez Twitter hizo un mejor trabajo al detener la redada.
“Mientras que casi la mitad de las cuentas que recientemente difundieron el n-slur fueron suspendidas, menos del 10% de las cuentas fueron suspendidas en la redada anterior, lo que sugiere que este es un problema histórico previo a la compra con una aplicación histórica. desigual”.
A pesar de la contundente respuesta de Twitter al discurso de odio, ya se había hecho algo de daño.
Varios anunciantes han detenido el gasto en Twitter por ahora hasta que puedan obtener una mejor indicación de cómo Musk cumplirá su promesa de mantenerlo “cálido y acogedor” y evitar que se convierta en un “infierno para todos”.
Entre los que dejan Twitter por ahora están Shonda Rhimes, creadora de “Grey’s Anatomy”, “Bridgerton” y otros exitosos programas de televisión, la cantautora ganadora del Grammy Sarah Bareilles y el actor y productor de “This Is Us” Ken. Olín.
Otros están esperando ver a dónde Musk y sus equipos llevan el producto, pero han amenazado con irse dependiendo de los resultados.
El ícono del baloncesto LeBron James expresó su preocupación por el aumento de los tuits racistas, y Musk respondió en Twitter con un enlace a un hilo del actual jefe de seguridad de la red social, Yoel Roth. El ejecutivo de Twitter desde hace mucho tiempo dijo que su equipo había tomado medidas para eliminar las cuentas que eran responsables de gran parte de los ataques.
El análisis de NCRI confirma que los pasos que dieron Roth y el equipo de seguridad fueron efectivos.
En el futuro, al NCRI le gustaría ver un mayor uso de la “detección automática de anomalías”, tecnología comúnmente utilizada en ciberseguridad para monitorear el rendimiento de la red o detectar cuándo alguien puede estar intentando piratear los sistemas de una empresa, dijo Goldenberg. , analista senior de inteligencia de NRCI. .
La detección de anomalías aplicada a las redes sociales habría permitido a Twitter tomar medidas preventivas una vez que se detectó inicialmente la redada planificada.
Goldenberg y Sohn comparan esta tecnología con un detector de humo o un detector de monóxido de carbono para los problemas sociales que se gestan en línea.
Si bien Musk se ha presentado a sí mismo como un absolutista de la libertad de expresión, su historial de defensa de los derechos de los demás es mixto. Más recientemente, reconoció la necesidad de equilibrar los ideales de la libertad de expresión con la confianza y la seguridad en Twitter.
Una cosa que no ha prometido hacer públicamente es ser más cuidadoso con sus propios tuits.
Musk tiene un historial de publicar teorías de conspiración, comentarios y chistes sin fundamento que han sido ampliamente interpretados como sexistas, anti-LGBTQ, racistas o antisemitas. En particular, ha publicado memes de Hitler en su cuenta de Twitter ampliamente seguida.
Justo después de hacerse cargo de Twitter, Musk compartió una teoría de conspiración anti-LGBTQ infundada sobre una invasión de una casa y un asalto a Paul Pelosi, esposo de la presidenta de la Cámara de Representantes, Nancy Pelosi. Musk luego eliminó el tweet sin una explicación.
Actualmente tiene 113,7 millones de seguidores en la lista de la plataforma, un número que crece rápidamente.
Esta nota es parte de la red de Wepolis y fué publicada por Oliver Roberts el 2022-11-04 01:46:54 en:
Link a la nota original
Palabras clave:
#Así #como #Elon #Musk #puede #prevenir #redadas #racistas #Twitter #Latino #News