Es verano en el hemisferio boreal, aunque en San Francisco conviene siempre llevar un abrigo en la mano, porque por la tarde suele soplar viento desde la bahía y refresca rápidamente. Leer el pronóstico del clima antes de salir no garantiza anticipar lo que va a ocurrir, especialmente si no se confía en la fuente de la información. Y es que en Internet, si hay algo que abunda (y daña) son las noticias falsas. Y a Facebook, la red social más utilizada del planeta, eso no le gusta. Por eso invitó por primera vez a periodistas de todo el mundo para mostrarles los esfuerzos que están haciendo para combatirlas.
«Los posteos y las cuentas que promueven el odio, la violencia física o el abuso sexual violan nuestras políticas y por eso los eliminamos directamente. Ahora también lo haremos con aquellas publicaciones que puedan suponer un peligro físico para las personas», sostuvo en la ronda de prensa John Hegeman, responsable de News Feeds y el análisis de las publicaciones en Facebook. Estos posteos pueden ser, por ejemplo, falsas denuncias de crímenes o acusaciones sin fundamento que pueden llevar a acciones violentas, como ocurrió con el «pizzagate». Esto marca una diferencia en cómo venía trabajando la empresa, ya que hasta ahora, solo se reducía la exposición de estas noticias sin eliminarlas.
Áreas grises
Desde la empresa también sostienen que, «los extremos son malos: no podemos dejar que todo lo que se publica quede sin revisar, pero tampoco podemos examinar cada uno de los millones de posteos que se realizan diariamente». Es por eso que utilizan Machine Learning e inteligencia artificial para analizar la información posteada. Si de esos análisis surge que determinado tipo de posteo podría ser una noticia falsa, se encienden las alertas. Si no cumple con las normas de publicación que la empresa tiene publicadas y que actualiza continuamente y si además «provocan daños físicos reales a una persona, el contenido no debe estar en la plataforma», agrega Hegeman.
Ahora bien, como muchas veces las noticias falsas llegan disfrazadas (con lenguaje irónico o apuntando por ejemplo a un link válido), es necesario un segundo control, esta vez hecho por un ser humano, que analiza la información y comprueba si es falsa o no.
«Hay muchas áreas grises y leyes distintas en cada país donde Facebook está presente, por lo que necesitamos toda la ayuda posible», indicó a los periodistas Tessa Lyons, gerente de Producto de la empresa. Es por eso que efectúan controles verificando si las fuentes de la información son confiables (por ejemplo, si provienen de un sitio de noticias reconocido), así como si se está hablando de ese tema en otros sitios de Internet o medios de comunicación. A eso, suma además que sea la propia comunidad la que ayude a identificar las noticias falsas, con las herramientas que están en la parte superior de la vista de las publicaciones, que permiten chequear de dónde proviene la información.
«Además, comenzaremos a trabajar con nuestros aliados de verificación para que utilicen Claim Review de Schema.org, un framework de código abierto utilizado por varias empresas de tecnología para la verificación de datos», añadió Lyons.
Los mensajes reenviados serán etiquetados en WhatsApp para distinguir el texto del contenido que forma parte de la conversación entre dos personas o un grupo
El servicio de mensajería instantánea de Facebook también estuvo en los últimos meses bajo la lupa por diversos casos de denuncia, rumores y noticias falsas que circularon sin parar entre los usuarios y grupos de WhatsApp . Por este motivo la compañía decidió comenzar a notificar a los usuarios si un mensaje fue reenviado con el objetivo de diferenciar el contenido generado por un amigo o familiar de aquellos que fueron creados por un tercero.
A su vez, los usuarios no podrán reenviar un mensaje de texto más de 20 veces, un límite que es más estricto en India, con solo cinco contactos o grupos.
Deja una respuesta