Meta, la empresa matriz de Facebook e Instagram, ha anunciado un cambio radical en su enfoque hacia la moderación de contenidos. Mark Zuckerberg, CEO de la compañía, explicó que el sistema de verificación de datos será sustituido por un modelo de notas comunitarias, similar al utilizado por X (anteriormente Twitter). Este giro busca, según Zuckerberg, «restaurar la libertad de expresión» y minimizar los errores en la eliminación de contenidos.
El sistema de verificación de datos, instaurado tras las elecciones de 2016 en Estados Unidos, será desmantelado por sus limitaciones. Según Zuckerberg, «los verificadores han demostrado sesgos políticos«, especialmente en contextos como Estados Unidos, lo que ha generado desconfianza entre los usuarios. En lugar de continuar como árbitros de la verdad, Meta delegará en la comunidad la tarea de aportar contexto a las publicaciones, promoviendo un enfoque más colaborativo e imparcial.
Con este nuevo sistema, los usuarios podrán añadir explicaciones y detalles a publicaciones controvertidas mediante notas comunitarias. Este modelo se implementará inicialmente en Estados Unidos y buscará ofrecer una alternativa menos centralizada a la lucha contra la desinformación. Meta confía en que este cambio permitirá a los usuarios tener un rol más activo en la moderación, en lugar de depender únicamente de verificadores externos o algoritmos.
Otro aspecto relevante del anuncio es la simplificación de las políticas de contenido. Meta eliminará restricciones relacionadas con temas como inmigración y género, que, según Zuckerberg, se habían convertido en herramientas para silenciar puntos de vista alternativos. «Queremos un espacio donde las personas puedan expresar sus creencias sin temor a la censura, siempre que no infrinjan la ley», afirmó el CEO.
A pesar de este enfoque más abierto, Meta garantizará un control riguroso sobre contenidos de alta peligrosidad, como aquellos vinculados a actividades ilegales, terrorismo o explotación infantil. Para violaciones menos graves, los filtros automatizados serán ajustados para reducir errores, enfocándose exclusivamente en casos graves y confiando más en las denuncias de los usuarios para cuestiones menores.
La dependencia de sistemas automatizados ha sido una fuente constante de problemas para Meta, con millones de usuarios afectados por la eliminación de contenido que no violaba las normas. Zuckerberg reconoció que los filtros automáticos a menudo fallaron, especialmente en temas de menor gravedad, lo que generó una percepción de censura excesiva.
En este contexto, Meta reducirá el uso de algoritmos automatizados, asegurándose de que solo actúen con un alto nivel de certeza en infracciones graves. Este cambio busca corregir el impacto negativo de los errores y priorizar un enfoque más humano y matizado en la moderación de contenidos.
Zuckerberg subrayó que el objetivo de estas modificaciones es equilibrar la libertad de expresión y la seguridad en línea, ofreciendo un espacio donde los usuarios puedan participar activamente en la conversación global sin sentirse coartados por políticas restrictivas o fallos de los sistemas de moderación.