OBJETIVOS:
Comprender cómo los bots y trolls de Twitter («bots») promueven el contenido de salud en línea.
MÉTODOS:
Comparamos las tasas de bots con los usuarios promedio de mensajes relevantes para la vacuna, que recopilamos en línea desde julio de 2014 hasta septiembre de 2017. Estimamos la probabilidad de que los usuarios fueran bots, comparando las proporciones de tweets polarizados y antivacunas en todos los tipos de usuarios. Realizamos un análisis de contenido de un hashtag de Twitter asociado con la actividad troll rusa.
RESULTADOS:
En comparación con los usuarios promedio, trolls rusos (χ2 (1) = 102.0; P<.001), bots sofisticados (χ2 (1) = 28.6; P<.001) y «contaminadores de contenido» (χ2 (1) = 7.0; P<.001) tuitearon sobre la vacunación a tasas más altas. Mientras que los contaminadores de contenido publicaron más contenido de antivacunas (χ2 (1) = 11.18; P<.001), los trolls rusos amplificaron ambos lados. Las cuentas no identificables estaban más polarizadas (χ2 (1) = 12.1; P<.001) y antivacunas (χ2 (1) = 35.9; P<.001). El análisis del hashtag troll ruso mostró que sus mensajes eran más políticos y divisivos.
CONCLUSIONES:
Mientras que los bots que propagan malware y contenido no solicitado difunden mensajes antivacunas, los trolls rusos promovieron la discordia. Las cuentas disfrazadas de usuarios legítimos crean una falsa equivalencia, erosionando el consenso público sobre la vacunación. Implicaciones de salud pública. Enfrentarse directamente a los escépticos de las vacunas permite a los bots legitimar el debate sobre la vacuna. Se necesita más investigación para determinar la mejor manera de combatir el contenido impulsado por bots.
PMID: 30138075
PMCID: PMC6137759
DOI: 10.2105 / AJPH.2018.304567