Firmas de redes sociales luchan contra las noticias falsas

noticias falsas en redes sociales

Mientras ardía la catedral de Notre Dame, circuló una publicación en Facebook, un video granulado de lo que parecía ser un hombre con atuendo tradicional musulmán en la catedral.

Los verificadores de hechos de todo el mundo tomaron medidas y señalaron que el video y las publicaciones eran falsos y que las publicaciones nunca fueron virales.

Pero esta semana, el gobierno de Sri Lanka cerró temporalmente Facebook y otros sitios para detener la propagación de información errónea después de los ataques del domingo de Pascua en el país que mató a más de 250 personas. El año pasado, se culpó a la desinformación en Facebook por contribuir a los disturbios en el país.

Facebook, Twitter, YouTube y otros son cada vez más responsables del contenido de sus sitios a medida que el mundo trata de lidiar en tiempo real con los eventos a medida que se desarrollan. Desde los legisladores hasta el público, ha aumentado el clamor de que los sitios hagan más para combatir la desinformación, especialmente si se dirige a ciertos grupos.

Cambio de sentido de responsabilidad.

Durante años, algunos críticos de las empresas de medios sociales, como Twitter, YouTube y Facebook, los han acusado de haber hecho lo mínimo para controlar y eliminar información errónea en sus plataformas. Después de todo, las plataformas de Internet generalmente no son legalmente responsables del contenido allí, gracias a una ley federal de los Estados Unidos. UU de 1996 que dice que no son editores. Esta ley ha sido considerada como una protección clave para la libre expresión en línea.

Y esa protección legal ha sido clave para el crecimiento explosivo de las compañías de internet. Pero existe un consenso cada vez mayor de que las empresas son éticamente responsables del contenido engañoso, especialmente si el contenido tiene una audiencia y se está utilizando para dirigirse a ciertos grupos.

Tuning en silbatos para perros.

En una audiencia reciente del Comité Judicial de la Cámara de Representantes sobre la supremacía blanca y los delitos de odio, la congresista Sylvia García, una demócrata de Texas, interrogó a los representantes de Facebook y Google sobre sus políticas.

«¿Qué has hecho para asegurarte de que todos tus amigos en el mundo conozcan los silbidos de los perros, las palabras clave, las frases, las cosas a las que responde la gente, para que podamos ser más receptivos y ser proactivos en bloquear algo de esto? ¿Idioma? «preguntó García.

Cada empresa tiene un enfoque diferente.

Facebook, que puede haber tenido el más alto reconocimiento público de noticias falsas, no dice que sea una compañía de medios. Pero ha asumido una responsabilidad parcial por el contenido de su sitio, dijo Daniel Funke, reportero de la Red Internacional de Verificación de Hechos en el Instituto Poynter.

El gigante de los medios sociales utiliza una combinación de tecnología y humanos para abordar publicaciones y mensajes falsos que parecen dirigirse a grupos. Está colaborando con verificadores externos para eliminar el contenido censurable, y ha contratado a miles de personas para hacer frente a los problemas de contenido en su sitio.

Depósito de desinformación

Twitter ha apuntado bots, cuentas automáticas que difunden falsedades. Pero las noticias falsas a menudo nacen en Twitter y saltan a Facebook.

«Literalmente, no han hecho nada para combatir la desinformación», dijo Funke.

YouTube, propiedad de Google, ha modificado sus algoritmos para que sea más difícil encontrar videos problemáticos, o incrustar código para asegurarse de que el contenido de los hechos relevantes es más importante en la búsqueda. YouTube es «un pantano de desinformación simplemente porque hay mucho allí y vive más allá del momento», dijo Funke.

Otras plataformas de interés son Instagram y WhatsApp, ambas propiedad de Facebook.

Algunos dicen que lo que las compañías de internet han hecho hasta ahora no es suficiente.

«Para usar una metáfora que se usa a menudo en el boxeo, la verdad es contra las cuerdas. Se está golpeando», dijo Sam Wineburg, profesor de educación en la Universidad de Stanford.

Lo que se necesita, dijo, es que las empresas asuman toda la responsabilidad: «Este es un desastre que hemos creado y dedicaremos recursos que reducirán las ganancias a los accionistas, porque requerirán una inversión más profunda en nuestra propia compañía».

Verificación de hechos e inteligencia artificial.

Una de las organizaciones de verificación de datos con las que trabaja Facebook es FactCheck.org. Recibe mensajes de información errónea de Facebook y otros. Sus reporteros revisan las historias y luego informan en su propio sitio si la información es verdadera o falsa. Esa información se remonta a Facebook también.

Facebook es «entonces capaz de crear una base de datos de malos actores, y pueden comenzar a tomar medidas contra ellos», dijo Eugene Kiely, director de FactCheck.org. Facebook ha dicho que será más difícil encontrar publicaciones de personas o grupos que continuamente publican información errónea.

Los grupos verán menos incentivos financieros, dice Kiely. «Obtendrán menos clics y menos publicidad».

Funke predice que las empresas utilizarán la tecnología para semiautomatizar la verificación de hechos, lo que lo hará mejor, más rápido y capaz de igualar la escala de información errónea.

Eso costará dinero por supuesto. También podría frenar el crecimiento de las empresas de internet. ¿Ser más responsable significa ganar menos dinero? Es probable que las empresas de redes sociales lo descubran.

Curiosidades
Copyright 2017