Borrar
¿Qué ha pasado hoy, 27 de marzo, en Extremadura?
Las redes sociales quieren controlar el cotenido violento o falso.
Un ejército de 3.000 moderadores para vigilar la red

Un ejército de 3.000 moderadores para vigilar la red

Facebook, Google o Wikipedia ponen en marcha iniciativas para combatir los contenidos violentos y las noticias falsas

MICHAEL MCLOUGHLIN

Lunes, 8 de mayo 2017, 10:21

Necesitas ser suscriptor para acceder a esta funcionalidad.

Compartir

Internet significa en muchas ocasiones libertad. De expresión, de información. Un mundo con pocas más fronteras que los idiomas. Sin embargo, muchas veces esta virtud se convierte en un problema. La posibilidad de publicar con escasos filtros ha dado pie a problemas relacionados con el acoso, la violencia o las noticias falsas. Es un asunto especialmente notable en redes sociales donde, a pesar de la mejora de herramientas y sistemas de denuncia, el problema sigue patente. Por eso, gigantes como Facebook, Google o Wikipedia han empezado a mover pieza para colocar nuevas 'aduanas' que les permitan vigilar el contenido en sus plataformas sin que los usuarios lo perciban como un sistema de control.

En la era de los algoritmos y de la inteligencia artificial, Mark Zuckerberg ha tenido que recurrir al factor humano para poder detectar y frenar la publicación de vídeos de carácter violento. Un auténtico ejército de 3.000 personas que se han dedicado a patrullar millones de perfiles de la mayor red social del planeta y atender los más rápido posible a los reportes de los usuarios.

Lo que ha desatado esta medida ha sido una serie de publicaciones a través de Facebook Live -el servicio de 'streaming' de la comunidad- o vídeos en los que se han podido ver asesinatos. El pasado mes un hombre de 37 años de Cleveland, Steve Stephens, retransmitió en directo cómo acababa con la vida de otro de 74 años. Y además presumía de tener en su haber otras trece víctimas. Poco después, un tailandés de 20 años, Wuttisan Wongtalay, mostró segundo a segundo cómo mataba a su hija, un bebé de apenas once meses de edad. Este contenido tardó más de 24 horas en ser eliminado, lo que avivó la polémica y la presión para que la compañía tomase medidas rápidas.

Zuckerberg también prometió un sistema para que denunciar contenidos inapropiados "sea más fácil". Todos estos esfuerzos se unen a otras medidas para combatir, por ejemplo, la publicación de noticias falsas, un asunto candente tras lo ocurrido en las elecciones de Estados Unidos. Además de información pedagógica para la comunidad, los responsables han reducido los beneficios por la viralidad de los contenidos y el trabajo con asociaciones para poder asegurar la veracidad de las informaciones.

Veracidad

Google también se ha volcado en el combate de estos contenidos no deseados. Pero en Mountain View lo que han hecho ha sido modificar el algoritmo de búsqueda para incluir una nueva funcionalidad: 'fast check' o verificación rápida. Para ello se ha asociado con snoopes.com, una página dedicada a corroborar la veracidad de las informaciones en internet. Así cuando uno realice una búsqueda sobre un personaje público o cualquier hecho verá un aviso sobre lo cierto que tiene cada titular.

Otro que se ha puesto en pie de guerra contra estos bulos ha sido Jimmy Wales, fundador de Wikipedia. La enciclopedia colaborativa ha tenido que hacer en muchas ocasiones frente a inexactitudes de los textos que subían algunos usuarios y ahora quieren utilizar todo ese conocimiento en Wikitribune. Se trata de una organización sin animo de lucro que estará dirigida por periodistas que revisarán todas las noticias publicadas por los diferentes colaboradores. Aunque de momento estará solo en inglés, se publicará con licencia 'creative commons' para que todo el mundo pueda referenciar y hacer uso de ellas en otros idiomas. No contará ni con muro de pago, ni con anuncios. El modelo será el de la Wikipedia: la aportación de sus colaboradores y la comunidad.

Reporta un error en esta noticia

* Campos obligatorios