Las personas comparten información errónea debido a los incentivos de las redes sociales, pero eso se puede cambiar.
“Después de algunos ajustes a la estructura de recompensas de las plataformas de redes sociales, los usuarios comienzan a compartir información precisa y basada en hechos”. (Aunque los ajustes implicaron pagarle a la gente para que lo hiciera).
Por IAN ANDERSON , GIZEM CEYLAN y WENDY WOOD
¿ Están las redes sociales diseñadas para recompensar a las personas por actuar mal ?
La respuesta es claramente sí, dado que la estructura de recompensas en las plataformas de redes sociales se basa en la popularidad, como lo indica la cantidad de respuestas (me gusta y comentarios) que recibe una publicación de otros usuarios. Los algoritmos de caja negra amplifican aún más la difusión de publicaciones que han llamado la atención.
Compartir contenido ampliamente leído, por sí solo, no es un problema. Pero se convierte en un problema cuando el diseño prioriza el contenido controvertido y que llama la atención. Dado el diseño de los sitios de redes sociales, los usuarios crean hábitos para compartir automáticamente la información más atractiva , independientemente de su precisión y daño potencial. Las declaraciones ofensivas , los ataques a grupos externos y las noticias falsas se amplifican, y la información errónea a menudo se propaga más lejos y más rápido que la verdad .
Somos dos psicólogos sociales y un estudioso del marketing . Nuestra investigación , presentada en la Cumbre del Premio Nobel de 2023 , muestra que las redes sociales en realidad tienen la capacidad de crear hábitos en los usuarios para compartir contenido de alta calidad. Después de algunos ajustes en la estructura de recompensas de las plataformas de redes sociales, los usuarios comienzan a compartir información precisa y basada en hechos.
El problema con el intercambio de información errónea impulsado por el hábito es significativo. La propia investigación de Facebook muestra que poder compartir contenido ya compartido con un solo clic genera información errónea. El 38 % de las visualizaciones de información errónea de texto y el 65 % de las visualizaciones de información errónea fotográfica provienen de contenido que se ha compartido dos veces, lo que significa una parte de una parte de una parte de una publicación original. Las mayores fuentes de desinformación, como War Room de Steve Bannon , explotan la optimización de la popularidad de las redes sociales para promover la controversia y la desinformación más allá de su audiencia inmediata.
Reorientación de recompensas
Para investigar el efecto de una nueva estructura de recompensas, otorgamos recompensas financieras a algunos usuarios por compartir contenido preciso y no compartir información errónea. Estas recompensas financieras simularon la retroalimentación social positiva, como me gusta, que los usuarios suelen recibir cuando comparten contenido en las plataformas. En esencia, creamos una nueva estructura de recompensas basada en la precisión en lugar de la atención.