Autor: FELIPE LAGOS
¿Es posible reeducar el feed de redes sociales contra la polarización política?
¿ Es posible reeducar el feed de redes sociales contra la polarización política? Durante las campañas políticas, los feeds no son n e u t r o s. A l r e f l e j a r nuestras preferencias pueden reforzar burbujas ideológicas.
Un estudio reciente de la Universidad de Ámsterdam revela que, incluso sin algoritmos de amplificación, emergieron espontáneamente clanes, voces extremas y dominio de unos pocos perfiles. ¿La conclusión? Los usuarios tienden a buscar, seguir y compartir contenido que refuerza sus creencias, y la arquitectura misma de las redes, que prioriza conexiones emocionales y reacciones inmediatas, facilita la creación de entornos polarizados. CÓMO FUNCIONA EL ALGORITMO Los algoritmos aprenden de nuestras señales, a quién seguimos, qué buscamos o comentamos, y predicen qué contenido nos enganchará más. “El algoritmo siempre me va a estar recomendando contenido asumiendo que a mí me gusta una línea política, a menos que yo tenga la capacidad de elegir también otras perspectivas. La única forma de romper ese ciclo es diversificando tus preferencias”, dice Ricardo Seguel, académico de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez. Pero incluso si diversificamos las señales, los límites del sistema persisten.
El sesgo a p a r e c e p o r q u e e l s i s t e m a aprende de nuestro propio historial y refuerza lo que ya nos gusta, generando un “sesgo de confirmación”, es decir, ver más de lo mismo. “Los sesgos no son erradicables.
Forman parte inherente de cualquier sistema sociotécnico porque provienen de tres dimensiones inseparables: la técnica (datos incompletos o mal representados), la social (estructuras de desigualdad, estereotipos, exclusiones históricas) y la cognitiva (nuestras propias limitaciones perceptivas y de juicio)”, dice Gabriela Arriagada, investigadora del Centro Nacional de Inteligencia Artificial y académica de la Universidad Católica. A esto se suman los bots, una de las herramientas más efectivas para amplificar la polarización OIRUCREMLE digital. Simulan perfiles reales y operan de manera automatizada, pudiendo inundar un clúster ideológico con mensajes coordinados, reforzando burbujas de opinión y esparciendo desinformación a gran velocidad, según Seguel. Aunque diversificar las señales es una estrategia valiosa, Arriagada advierte sobre los límites de delegar toda la responsabilidad en los usuarios. “Esta lógica desplaza obligaciones estructurales como la de diseñar sistemas transparentes y auditables hacia una esfera de autocuidado informativo que no todos pueden ejercer en igualdad de condiciones”, afirma. De todas formas, los expertos establecen sugerencias útiles para reeducar el feed. Primero, diversificar activamente fuentes y formatos, esto es, seguir medios con líneas editoriales distintas y autores diversos. Luego, interaccionar con contenido heterogéneo, y no solo guardar, sino que comentar y compartir porque pesan más que solo ver. Además, instan a romper rutinas, tales como usar el buscador interno con hashtags fuera de los intereses habituales. Y, por último, la “higiene informativa”, que implica verificar antes de compartir, es decir, desconfiar de cuentas no verificadas y reportar las inauténticas.. La idea de “higienizar” el algoritmo funciona, pero con límites. Requiere diversificar las señales que le brindamos, entender cómo personalizan las plataformas y asumir que sin transparencia y reglas no basta el esfuerzo individual. CAMPAÑAS POLÍTICAS, DESINFORMACIÓN Y BOTS: EL SESGO aparece porque el sistema aprende de nuestro propio historial y refuerza lo que ya nos gusta.