Científicos logran reducir el odio y la irracionalidad política entre usuarios de X bloqueando su algoritmo
Un experimento con más de 1.200 usuarios demuestra que limitar la exposición a mensajes incendiarios disminuyó la ira y la tristeza, aumentando las posibilidades para un debate más sosegado.
Un equipo investigador ha desarrollado una herramienta que modifica en tiempo real los contenidos políticos que los usuarios ven en la red social X (anteriormente Twitter) sin requerir autorización de la corporación de Elon Musk, según detalla un estudio publicado en la revista Science. El estudio, titulado Reranking partisan animosity in algorithmic social media feeds alters affective polarization, fue realizado con 1.256 personas durante diez días de campaña electoral en EE.UU. en 2024 bloqueó mensajes que los investigadores identificaron como “lenguaje antidemocrático o apología de la violencia contra partidos políticos contrarios”. Los resultados mostraron que los participantes cuyo acceso a este tipo de contenidos fue restringido manifestaron posteriormente “opiniones más positivas sobre el partido político contrario” y “menores niveles de ira y tristeza”, según recoge Deutsche Welle.
El estudio parte del reconocimiento de que las corporaciones tecnológicas ejercen control absoluto sobre los algoritmos que determinan qué información circula en las redes sociales, ofreciendo “poca o nula transparencia” sobre su funcionamiento. Pero la herramienta desarrollada por los investigadores sortea esta opacidad al intervenir directamente en lo que el usuario visualiza, demostrando que la composición del flujo informativo no es un resultado neutro, sino una variable manipulable con efectos inmediatos en las percepciones políticas de los usuarios. Los investigadores señalan que su método podría ayudar a desarrollar "intervenciones que mitiguen la polarización y promuevan un debate más sosegado", aunque reconocen el "reto" que supone la opacidad algorítmica de las plataformas. Tiziano Piccardi, investigador de la Universidad Johns Hopkins, declaró que el efecto se observó “tanto en personas que se identificaban como de izquierdas como en las que se identificaban como conservadoras”.
La investigación evidencia que la arquitectura de las plataformas, diseñada y poseída por entidades privadas con fines de lucro, actúa como un mecanismo material que condiciona la conciencia política. Al demostrar que alterar los parámetros técnicos modifica las actitudes de los usuarios, el estudio corrobora que los conflictos sociales en el espacio digital no son meros reflejos de divisiones preexistentes, sino que son amplificados y dirigidos por infraestructuras que están en manos privadas. La herramienta prueba, en la práctica, que es técnicamente viable organizar los flujos de información de otra manera, contradiciendo el discurso empresarial que presenta sus algoritmos como "inevitables" o "neutrales".
El valor central del hallazgo reside en haber creado un método para analizar y contrarrestar experimentalmente la opacidad algorítmica corporativa, exponiendo las bases materiales de la gestión de la información bajo el capitalismo. Al intervenir directamente en la capa técnica, que es el ámbito donde se ejerce el poder real sobre la circulación de las ideas en redes sociales, la investigación desmonta la ilusión de una supuesta "esfera pública digital autónoma" y revela la disputa material por el control de los medios digitales a través de los cuales se forman las subjetividades y la conciencia política en el siglo XXI.