Hay un momento específico en el que una red social se vuelve tóxica. No cuando llega el primer troll ni cuando se activan los algoritmos de interacción, sino en el instante exacto en que la primera persona decide seguir a otra. A partir de entonces, según un estudio recién publicado porUniversidad de ÁmsterdamTodo va cuesta abajo debido a las cámaras de eco, la polarización y la amplificación de los extremistas. Y, al parecer, no, no hay cura.
La cámara de eco y el fracaso de las soluciones tradicionales
Petter Törnberg e Maik Larooij dell 'Universidad de Ámsterdam No esperaban estos resultados. Su objetivo era simple: crear un modelo limpio de redes sociales y comprobar si las soluciones propuestas durante años podían funcionar. Construyeron una plataforma virtual mínima donde agentes controlados por IA podían publicar, compartir y seguirse entre sí.Sin algoritmos de engagement, sin publicidad invasiva, sin manipulación de la atención.
¿El resultado? Según se informa en el estudio publicado en ArXivIncluso en estas condiciones ideales, todos los problemas habituales surgieron espontáneamente: cámaras de resonancia polarizadas, concentración de influencia en una pequeña élite de usuarios y amplificación sistemática de las voces más extremistas. «No tuvimos que añadir nada al modelo básico», explica Törnberg. «Estas dinámicas problemáticas surgieron de forma natural de la propia estructura de la red social».
El descubrimiento es inquietante porque muestra que el problema no radica en algoritmos maliciosos o en el comportamiento tóxico de los usuarios, sino en las matemáticas de las redes sociales. Cuando las personas eligen a quién seguir basándose en conexiones previas, automáticamente se crea una distribución de poder que sigue una ley de potencia.: El 1% de los usuarios termina dominando completamente la conversación.
Seis intentos de reforma, seis fracasos
Los investigadores probaron sistemáticamente seis estrategias de intervención diferentes, todas propuestas a lo largo de los años por expertos y académicos para combatir la toxicidad en línea. Ninguna funcionó como se esperaba.
Il alimentación de la historia Redujo la desigualdad de atención pero intensificó la amplificación de contenidos extremos.
lamayor diversidad de opiniones no tuvieron impactos significativos.
Los algoritmos de puente, diseñados para conectar a usuarios con opiniones opuestas, han mejorado la diversidad pero han aumentado la concentración de poder, etcétera.
Como documenta la investigación de Törnberg, cada solución creaba nuevos problemas o trasladaba el problema a otra parte.
incluso ocultar estadísticas sociales (me gusta, compartidos, número de seguidores) o eliminar biografías de usuarios Limitar las señales de identidad ha dado resultados decepcionantes. «El mecanismo que produce estos resultados problemáticos es realmente robusto y difícil de resolver», admitió Törnberg en una entrevista con Ars Technica.
El problema más profundo es que estas intervenciones a menudo mejoran un aspecto mientras empeoran otro. Es como reventar un globo: La presión cambia pero nunca desaparece.Las cámaras de eco parecen ser una característica emergente inevitable de las redes sociales digitales, no un error que se pueda solucionar con algunos ajustes algorítmicos.
Porque ni Bluesky ni Mastodon cambian las reglas del juego.
La investigación también explica por qué plataformas alternativas como Bluesky, que se enorgullece de no tener algoritmos de recomendación, terminan desarrollando la misma dinámica tóxica que Twitter o Facebook. Como anticipamos al analizar el colapso de las redes sociales tradicionalesEl problema no está en los algoritmos de engagement, sino en la estructura matemática de las conexiones sociales.
Cada vez que un usuario decide seguir a alguien, está participando en un proceso de “apego preferencial”: las personas que ya son populares se vuelven aún más populares, creando una distribución de influencia cada vez más concentrada. Es la misma dinámica que hace que algunas ciudades se conviertan en megalópolis mientras otras siguen siendo pueblos., pero aplicado a las relaciones digitales.
El estudio sugiere que, para superar realmente estos problemas, necesitamos abandonar el modelo de red social global y volver a estructuras más locales y grupales. ¿Es posible? Mmm.
Cámara de eco: ¿el futuro ya está escrito?
Las implicaciones de esta investigación van mucho más allá de las redes sociales. Como lo demuestran otros estudios sobre el daño físico de las redes socialesEstamos hablando de plataformas que impactan la salud mental y física de miles de millones de personas, además de dar forma al discurso político global.
Incluso si ya no se usan las redes sociales, el resto de la cultura sigue transformándose gracias a la lógica de las plataformas. Los periódicos adaptan sus titulares a lo que funciona en las redes sociales, los políticos cambian su forma de comunicarse y la sociedad en su conjunto se transforma gracias a los incentivos que generan estas plataformas.
La investigación de Törnberg y Larooij deja poco margen para el optimismo. Con la llegada de modelos lingüísticos avanzados, que pueden producir contenido optimizado para maximizar la interacción a escala industrial, la situación podría empeorar aún más. Estamos entrando en una era en la que bots cada vez más sofisticados podrían dominar las conversaciones en línea., amplificando aún más la dinámica tóxica que ya existe.
A menos que algún replanteamiento fundamental y brillante cambie estas dinámicas, las cámaras de eco seguirán prosperando, sin importar cuántos algoritmos cambiemos o cuántas plataformas nuevas lancemos.
Porque no son las redes sociales. Somos nosotros.