Cargando contenido

Ahora en vivo

Seleccione la señal de su ciudad

Facebook en un dispositivo móvil
Facebook en un dispositivo móvil
AFP

Facebook prohibirá los videos "deepfake" (ultrafalsos) de cara a las elecciones de este año en Estados Unidos, pero su nueva política aún permitirá la publicación de videos muy editados siempre que se trate de parodias o sátiras.

Los contenidos deepfake son videos hiperrealistas hechos con inteligencia artificial o programas diseñados especialmente para imitar de manera muy realista movimientos humanos reales.

En una publicación de blog que siguió a un reporte del diario Washington Post sobre el tema, Facebook dijo que comenzará a eliminar los clips que fueron editados en formas que "no son evidentes para una persona promedio" y que pueden llevar a la confusión.

Consulte también: Google toma nuevas medidas contra los videos 'deepfake'

El material será removido si es "producto de inteligencia artificial o de aprendizaje automático que superpone o reemplaza contenido en un video, haciéndolo parecer auténtico", dice el texto de la vicepresidenta de Facebook, Monika Bickert.

Sin embargo, añade: "Esta política no se extiende a contenido que sea parodia o sátira, o videos que simplemente hayan sido editados para omitir o modificar el orden de las palabras".

Lea acá: ¿Vale la pena? Esto es lo que ofrecería la PlayStation 5

Medios estadounidenses destacaron que la nueva política no incluirá videos como el que se hizo viral en 2019 -que no era "deepfake"- de la líder de la Cámara de Representantes, Nancy Pelosi, que hacía parecer como que tuviera problemas de pronunciación.

Facebook no indicó la cantidad de personas dedicadas a identificar y bajar los videos infractores, pero aseguró que aquellos que no cumplan con sus políticas usuales serán removidos y los que sean denunciados seguirán siendo revisados por equipos de verificadores externos, entre ellos los de AFP.

Vea también: Las nuevas reglas que implementará China para acabar con las fake news

La AFP trabaja en más de 30 países y en diez idiomas en el programa "Third party fact-checking" de verificación de contenidos desarrollado por Facebook. Dentro de este programa, que fue lanzado en diciembre de 2016, Facebook remunera a unos 60 medios de todo el mundo, de información general o especializados, para usar sus fact-checks en su plataforma y en Instagram.

Si uno de estos medios detecta que una información es falsa o engañosa, los usuarios de Facebook e Instagram tienen menos posibilidades de verla aparecer entre sus noticias de actualidad. Y si alguien intenta compartir esta información, la plataforma le propone la lectura del artículo con la correspondiente verificación. Facebook no elimina ninguna publicación. Los medios que participan tienen total libertad en la elección y tratamiento de los temas que desean verificar.

Fuente

AFP

Encuentre más contenidos

Fin del contenido.