Cargando contenido

Ahora en vivo

Seleccione la señal de su ciudad

Facebook, Instagram y WhatsApp
Facebook, Instagram y WhatsApp, redes sociales que pertenecen a Mark Zuckerberg.
AFP

La plataforma de Facebook sufrió una caída a nivel mundial que fue reportada con el numeral #facebookdown. Miles de usuarios dieron cuenta de cómo quedaron sin el servicio de la plataforma. 

#FacebookDown pic.twitter.com/qtwqNqRuz3

— November5150 (@eddieVH_2018) 12 de noviembre de 2018

Todos los usuarios de facebook del Perú #FacebookDown pic.twitter.com/FZJlMzmvPH

— David Rodriguez (@xzangetsu_1995) 12 de noviembre de 2018

#facebookdown
pues sí, esta vez le toco a facebook! aún no se revelan las causas de las fallas en esta red social. pic.twitter.com/Lzuc5biy11

— Capital Colima (@CapitalFMColima) 12 de noviembre de 2018

Se ha caído #facebook y todos así: #FacebookDown ? pic.twitter.com/Zy8o3Dsu2Q

— Aster (@AsterGazer) 12 de noviembre de 2018

Al parecer facebook solo resiste 96 quacks.#facebookdown pic.twitter.com/VkprlEAus9

— Los Simpson (@ElChisteDelSofa) 12 de noviembre de 2018

Al margen de saber qué le sucedió a Facebook en su caída, la red social Facebook anunció, el 8 de noviembre anterior, que en lo que va de año ha eliminado en todo el mundo más de 14 millones de contenidos que ensalzaban a grupos terroristas como el Estado Islámico (EI) o Al Qaeda y sus organizaciones afiliadas.

En una entrada en el blog de la compañía, la jefa de Políticas Globales, Monika Bickert, y el responsable de Política Antiterrorista, Brian Fishman, indicaron que la gran mayoría de mensajes fueron eliminados a partir de abril, especialmente durante el segundo trimestre del año. Así, durante los primeros tres meses de 2018 se eliminaron 1,9 millones de contenidos proterroristas, una cifra que se disparó hasta los 9,4 millones entre abril y junio y que volvió a reducirse a 3 millones en el tercer trimestre.

"En el mundo real, los grupos terroristas han demostrado una gran resiliencia ante los esfuerzos antiterroristas, así que no debería sorprender a nadie que esa misma dinámica se traslade a plataformas sociales como Facebook", indicaron los responsables de la empresa con sede en Menlo Park (California, EE.UU.).

Facebook explicó que está usando sistemas de aprendizaje automático ("machine learning" en inglés) para detectar y eliminar mensajes que muestren apoyo al EI o Al Qaeda de la forma más rápida posible.

Según la empresa, estas técnicas ya han tenido un impacto sustancial, puesto que, de acuerdo con sus datos, si en el segundo trimestre la media de tiempo que se tardó en eliminar nuevos contenidos fue de 14 horas, solo tres meses después ese tiempo se había reducido de forma drástica hasta "menos de dos minutos".

Del total de 14 millones de contenidos favorables con terroristas que la red social ha eliminado este año, aproximadamente la mitad son mensajes "antiguos", es decir, colgados antes de 2018, pero que seguían presentes en la red social, mientras que el resto fueron colgados a partir de enero. 

Fuente

Sistema Integrado Digital

Encuentre más contenidos

Fin del contenido.