Meta, la empresa matriz de Facebook, Instagram y WhatsApp, decidió poner fin a su programa de fact-checking, una herramienta clave para combatir la desinformación en sus plataformas. Este cambio ha provocado preocupación entre expertos, usuarios y organizaciones que luchan por mantener la integridad de la información en la era digital. ¿Cuáles son las implicaciones de esta decisión?
Desde su implementación, el programa de fact-checking de Meta, según el Centro de Transparencia de Meta, buscaba identificar y reducir la propagación de contenido falso o engañoso en sus plataformas. En colaboración con terceros independientes certificados, como organizaciones de verificación de hechos, Meta marcaba el contenido cuestionable, reduciendo su alcance y proporcionando contexto adicional a los usuarios.
Sin embargo, el programa también ha enfrentado críticas por su efectividad y transparencia. Algunos usuarios lo consideraban insuficiente para combatir la desinformación a gran escala, mientras que otros acusaban a Meta de censura o parcialidad.
Mark Zuckerberg aludió a “demasiados errores y demasiada censura”, durante su anuncio. “Construimos sistemas complejos para moderar contenido. El problema con los sistemas complejos es que cometen errores. Las recientes elecciones también parecen ser un punto de inflexión cultural hacia volver a priorizar la libertad de expresión”, sostuvo el CEO de Meta sobre la moderación de contenido.
Además, Meta enfrenta una presión significativa para equilibrar sus responsabilidades sociales con la necesidad de mantener la confianza de sus usuarios y accionistas. Al abandonar el programa de fact-checking, podría también estar reduciendo costos operativos asociados con estas colaboraciones externas.
El fin del programa ha suscitado diversas reacciones. La organización de verificación Factchequeado destaca que, si bien algunos perciben la eliminación del programa como una oportunidad para reducir acusaciones de censura, esto puede representar un paso atrás en la moderación de contenido responsable.
Por su parte, Chequeado asegura que la decisión de Meta podría exacerbar los problemas de desinformación en los Estados Unidos, un país ya afectado por la polarización y la propagación de contenido falso. Sin un sistema de verificación, los usuarios podrían quedar más expuestos a contenido falso o engañoso, especialmente en temas delicados como elecciones, salud pública y cambio climático. “La ausencia de un programa claro y transparente podría erosionar la confianza de los usuarios en las plataformas de Meta como espacios seguros para el intercambio de información”.
Asimismo, la Sociedad Interamericana de Prensa (SIP) ha manifestado su inquietud respecto a la decisión de Meta. La SIP considera que esta medida podría debilitar la lucha contra la desinformación y poner en riesgo los esfuerzos realizados para promover un ecosistema informativo más seguro.
La asociación internacional de periodistas Reporteros sin Fronteras, asegura que "con su ataque al fact-checking, que había convertido en uno de los símbolos de su lucha contra la desinformación, Meta acentúa su lógica de desvinculación del derecho de acceso a una información fiable y refuerza su modelo basado en la viralidad, con el riesgo de amplificar el discurso del odio, la manipulación y la información falsa".
Perspectivas futuras
La compañía Meta reemplazará su programa de verificación de datos independiente en los Estados Unidos con un modelo de notas de la comunidad similar al de X. Según Factchequeado, este sistema, disponible desde 2023 en la plataforma X, permite a los colaboradores de X agregar contexto a posts con el fin de dar información adicional a los usuarios y que puedan ver en esas notas si un mensaje contiene desinformación.
Sin embargo, la plataforma no modera las notas y tampoco cuenta con un mecanismo interno de verificación para constatar la validez de ellas. “Los expertos se muestran preocupados por los efectos que puede tener este sistema en la lucha contra la desinformación, ya que no se evalúan los conocimientos en verificación de los colaboradores y las notas pueden usarse como un campo de batalla entre grupos enfrentados en las redes”, advierte la organización.
Por otro lado, la compañía Meta también anunció que eliminará varias restricciones sobre temas como la inmigración y la identidad de género, y cambiará la forma en que se aplican las políticas “para reducir el tipo de errores que representan la gran mayoría de la censura en nuestras plataformas”. También se reincorporará el contenido político en los feeds de las personas que quieran verlo.
Mientras Meta apuesta por este cambio, otras empresas tecnológicas continúan apoyándose en programas de fact-checking humanos como complemento a sus herramientas tecnológicas. Esto plantea la pregunta de si la estrategia de Meta será suficiente para abordar la desinformación de manera efectiva. La decisión podría tener implicaciones más amplias en el ecosistema digital, incentivando a otras plataformas a replantear sus propias políticas de verificación de hechos.
La decisión de Meta de abandonar su programa de fact-checking marca un punto de inflexión en la lucha contra la desinformación en las redes sociales. Mientras la empresa explora nuevas estrategias, los riesgos y beneficios de este enfoque aún están por verse. Lo que está claro es que la batalla por la integridad de la información continúa siendo un desafío crítico para la era digital, en estos inicios del año 2025.