Nueva York (CNN Business) — El 6 de enero fue un claro punto de inflexión para las principales plataformas de redes sociales, ya que demostraron que, en determinadas circunstancias, estarían dispuestas a desactivar la plataforma de un presidente de Estados Unidos en ejercicio. Pero a algunos expertos les preocupa que todavía no hayan hecho lo suficiente para abordar los problemas subyacentes que permitieron que los partidarios de Trump y otros de la ultraderecha fueran engañados y radicalizados, y se organizaran utilizando sus plataformas.

De cara al aniversario, Meta, empresa matriz de Facebook, Twitter y YouTube dicen que han estado vigilando sus plataformas en busca de contenido perjudicial relacionado con los disturbios del Capitolio.

«Tenemos fuertes políticas que seguimos aplicando, incluyendo la prohibición de las organizaciones de odio y la eliminación de contenidos que las alaban o apoyan», dijo un portavoz de Meta a CNN, añadiendo que la compañía ha estado en contacto con las agencias de la ley, incluyendo el FBI y la Policía del Capitolio, en torno al aniversario. Como parte de sus esfuerzos, Facebook está monitoreando proactivamente el contenido que elogia el asalto al Capitolio, así como el contenido que llama a la gente a llevar o usar armas en Washington, según la compañía.

«Seguimos vigilando activamente las amenazas en nuestra plataforma y responderemos en consecuencia», dijo el portavoz de Meta.

Twitter convocó un grupo de trabajo interno con miembros de varias partes de la empresa para asegurarse de que la plataforma pudiera hacer cumplir sus normas y proteger a los usuarios en torno a la marca de un año del 6 de enero, dijo un portavoz de Twitter a CNN.

«Nuestro enfoque, tanto antes como después del 6 de enero [de 2020], ha sido tomar fuertes medidas contra las cuentas y los tuits que incitan a la violencia o tienen el potencial de conducir a un daño fuera de línea», dijo el portavoz, añadiendo que Twitter también tiene líneas abiertas de comunicación con los funcionarios federales y las fuerzas del orden.

publicidad

La Oficina de Inteligencia de YouTube, un grupo encargado de encontrar y moderar de forma proactiva los contenidos problemáticos, ha estado vigilando las tendencias en torno a los contenidos y comportamientos relacionados con los disturbios del Capitolio y su aniversario. Hasta este miércoles, la compañía no había detectado un aumento de contenidos con nuevas conspiraciones relacionadas con el 6 de enero o las elecciones de 2020 que violen sus políticas, según la portavoz Ivy Choi.

«Nuestros sistemas están señalando activamente los canales de alta autoridad y limitando la difusión de desinformación dañina para temas relacionados con las elecciones», dijo Choi en un comunicado.

Estos esfuerzos se producen después de que Facebook, Twitter, YouTube y otras plataformas se hayan enfrentado a intensas críticas durante el último año por el papel de las redes sociales en la crisis. Las empresas, por su parte, han argumentado en gran medida que contaban con políticas sólidas incluso antes de los disturbios en el Capitolio y que, desde entonces, no han hecho más que reforzar las protecciones y su aplicación.

Cuando los agitadores intensificaron su ataque al Capitolio el pasado 6 de enero, entrando en el edificio, saqueando las oficinas del Congreso y subyugando a los oficiales, las plataformas de las redes sociales se apresuraron a hacer lo que pudieron para frenar las consecuencias, primero etiquetando las publicaciones del presidente Trump, luego eliminándolas y después suspendiendo su cuenta por completo.

Pero algunos expertos se preguntan si el enfoque de la moderación ha cambiado sustancialmente en el último año.
«Aunque ciertamente espero que hayan aprendido de lo ocurrido, si lo han hecho, no lo han comunicado realmente de forma pública», dijo Laura Edelson, investigadora de la Universidad de Nueva York que estudia la comunicación política en línea.

Esto es especialmente preocupante, dice Edelson, ya que podría haber un resurgimiento de la desinformación sobre el asalto y la teoría de la conspiración de que las elecciones fueron robadas, apareciendo alrededor del aniversario del asalto. «Gran parte de la narrativa dentro del movimiento de la ultraderecha es que, en primer lugar, [el asalto] no fue tan malo, y en segundo lugar, que en realidad fueron los otros los que lo hicieron», dijo.

En entrevistas previas al aniversario del 6 de enero, algunos partidarios de Trump en Washington dijeron a CNN que creen que los demócratas o el FBI fueron los responsables del ataque.

Responsables del asalto al Capitolio irán ante la justicia, dice Garland 2:39

La respuesta de Facebook al 6 de enero

Facebook, ahora una división de Meta, fue la plataforma de medios sociales que más se vio afectada por el 6 de enero, debido en parte a los documentos internos filtrados por la denunciante Frances Haugen, que mostraban que la compañía había retirado las protecciones que había implementado para las elecciones de 2020 antes del 6 de enero del año pasado. Haugen dijo a la SEC en una presentación que la compañía solo volvió a implementar algunas de esas protecciones después de que comenzara el asalto.

Días después de los disturbios en el Capitolio, Facebook prohibió el contenido sobre «stop the steal». Y, a nivel interno, los investigadores analizaron por qué la empresa no pudo impedir el crecimiento del movimiento, según revelaron los documentos publicados desde entonces por Haugen (y obtenidos por CNN de una fuente del Congreso). Meta también ha tomado medidas para «interrumpir los movimientos sociales militarizados» y evitar que QAnon y las milicias se organicen en Facebook, dijo el vicepresidente de integridad de Meta, Guy Rosen, en una entrada de blog de octubre sobre los esfuerzos de la compañía en torno a las elecciones de 2020.

Meta rebatió las afirmaciones de Haugen y trató de distanciarse del ataque. Nick Clegg, vicepresidente de Asuntos Globales de la empresa, declaró a CNN en octubre que es «ridículo» culpar de los disturbios a las redes sociales. «La responsabilidad de la violencia del 6 de enero y de la insurrección de ese día recae directamente en las personas que infligieron la violencia y en las que la alentaron», dijo Clegg.

Sin embargo, los investigadores afirman que la empresa sigue luchando por combatir la desinformación y los contenidos extremistas.

«No hemos visto realmente ningún cambio sustancial en la moderación de contenidos de Facebook del que hayan hablado públicamente o que haya sido detectable externamente», dijo Edelson. «Parece que externamente siguen utilizando herramientas de concordancia de palabras clave bastante rudimentarias para identificar contenido problemático, ya sea discurso de odio o desinformación».

Meta señaló en una entrada de blog de septiembre que sus sistemas de Inteligencia Artificial han mejorado en la eliminación proactiva de contenidos problemáticos, como el discurso de odio. Y en su informe de noviembre sobre el cumplimiento de las normas comunitarias, la empresa afirmó que la prevalencia de las visualizaciones de contenidos de incitación al odio frente a otros tipos de contenidos disminuyó por cuarto trimestre consecutivo.

Un nuevo informe publicado este martes por el grupo de investigación y defensa de la tecnología Tech Transparency Project (TTP) descubrió que el contenido relacionado con los «Three Percenters», un grupo extremista y antigubernamental cuyos seguidores fueron acusados en relación con el asalto del 6 de enero, sigue estando ampliamente disponible en Facebook, algunos de los cuales utilizan «milicia» en los nombres de los grupos o incluyen símbolos conocidos asociados al grupo. Según el informe, cuando los investigadores de TTP examinaron estos contenidos, las funciones «amigos sugeridos» y «páginas relacionadas» de Facebook recomendaron cuentas o páginas con imágenes similares. (TTP está financiado en parte por una organización fundada por Pierre Omidyar).

«A medida que los estadounidenses se acercan al primer aniversario del asalto, el TTP ha encontrado muchos de los mismos patrones preocupantes en Facebook, ya que la empresa sigue pasando por alto a los grupos militantes que suponen una amenaza para la democracia y el Estado de Derecho», afirma el informe, y añade que «los algoritmos y las herramientas de publicidad de Facebook suelen promover este tipo de contenido entre los usuarios».

«Hemos eliminado varios de estos grupos por violar nuestras políticas», dijo el portavoz de Meta, Kevin McAlister, en una declaración a CNN sobre el informe de TTP.

Facebook dice que ha eliminado miles de grupos, páginas, perfiles y otros contenidos relacionados con movimientos sociales militarizados y ha prohibido ese tipo de organizaciones, incluidos los Three Percenters, y señaló que las páginas y los grupos citados en el informe de TTP tenían un número relativamente pequeño de seguidores.

Otros actores

Queda claro que el panorama de la desinformación se extiende mucho más allá de Facebook, incluso a plataformas más marginales, como Gab, que han ganado popularidad tras el 6 de enero gracias a sus promesas de no moderar los contenidos, mientras las empresas más grandes se enfrentaban a las peticiones de tomar medidas contra el discurso del odio, la desinformación y los grupos violentos.

En agosto, la Comisión Selecta de la Cámara de Representantes que investiga los disturbios letales del 6 de enero en el Capitolio envió cartas a 15 empresas de redes sociales, entre ellas Facebook, YouTube y Twitter, con el fin de entender cómo existía en sus plataformas la desinformación y los esfuerzos por anular las elecciones por parte de actores tanto extranjeros como nacionales.

Seis días después del ataque, Twitter dijo que había eliminado 70.000 cuentas que difundían teorías conspirativas y contenido de QAnon. Desde entonces, la compañía dice que eliminó miles de cuentas más por violar su política contra la «actividad dañina coordinada» y también dice que prohíbe los grupos extremistas violentos.

«El compromiso y el enfoque a través del gobierno, la sociedad civil y el sector privado también son críticos», dijo el portavoz de Twitter. «Reconocemos que Twitter tiene un papel importante que desempeñar, y estamos comprometidos a hacer nuestra parte».

YouTube dijo que en los meses anteriores a los disturbios del Capitolio había eliminado los canales de varios grupos que luego se asociaron con el ataque, como los relacionados con los Proud Boys y QAnon, por violar sus políticas existentes sobre el odio, el acoso y la integridad electoral. Durante el asalto y en los días posteriores, la compañía retiró las transmisiones en vivo de los disturbios y otros contenidos relacionados que violaban sus políticas, y YouTube dice que sus sistemas son más propensos a dirigir a los usuarios a fuentes autorizadas de información sobre las elecciones.

«A lo largo del último año, hemos eliminado decenas de miles de videos por infringir nuestras políticas relacionadas con las elecciones en EE.UU., la mayoría antes de llegar a las 100 visualizaciones», dijo Choi, de YouTube. «Seguimos atentos de cara a las elecciones de 2022 y nuestros equipos siguen vigilando de cerca y actuando rápidamente ante la desinformación electoral».

— Oliver Darcy de CNN contribuyó con este reportaje.

Asalto al Capitolio Redes sociales

Nueva York (CNN Business) — El 6 de enero fue un claro punto de inflexión para las principales plataformas de redes sociales, ya que demostraron que, en determinadas circunstancias, estarían dispuestas a desactivar la plataforma de un presidente de Estados Unidos en ejercicio. Pero a algunos expertos les preocupa que todavía no hayan hecho lo suficiente para abordar los problemas subyacentes que permitieron que los partidarios de Trump y otros de la ultraderecha fueran engañados y radicalizados, y se organizaran utilizando sus plataformas.

De cara al aniversario, Meta, empresa matriz de Facebook, Twitter y YouTube dicen que han estado vigilando sus plataformas en busca de contenido perjudicial relacionado con los disturbios del Capitolio.

Cómo ver el evento en vivo de CNN que conmemora el primer aniversario del asalto al Capitolio

«Tenemos fuertes políticas que seguimos aplicando, incluyendo la prohibición de las organizaciones de odio y la eliminación de contenidos que las alaban o apoyan», dijo un portavoz de Meta a CNN, añadiendo que la compañía ha estado en contacto con las agencias de la ley, incluyendo el FBI y la Policía del Capitolio, en torno al aniversario. Como parte de sus esfuerzos, Facebook está monitoreando proactivamente el contenido que elogia el asalto al Capitolio, así como el contenido que llama a la gente a llevar o usar armas en Washington, según la compañía.

«Seguimos vigilando activamente las amenazas en nuestra plataforma y responderemos en consecuencia», dijo el portavoz de Meta.

Twitter convocó un grupo de trabajo interno con miembros de varias partes de la empresa para asegurarse de que la plataforma pudiera hacer cumplir sus normas y proteger a los usuarios en torno a la marca de un año del 6 de enero, dijo un portavoz de Twitter a CNN.

«Nuestro enfoque, tanto antes como después del 6 de enero [de 2020], ha sido tomar fuertes medidas contra las cuentas y los tuits que incitan a la violencia o tienen el potencial de conducir a un daño fuera de línea», dijo el portavoz, añadiendo que Twitter también tiene líneas abiertas de comunicación con los funcionarios federales y las fuerzas del orden.

La Oficina de Inteligencia de YouTube, un grupo encargado de encontrar y moderar de forma proactiva los contenidos problemáticos, ha estado vigilando las tendencias en torno a los contenidos y comportamientos relacionados con los disturbios del Capitolio y su aniversario. Hasta este miércoles, la compañía no había detectado un aumento de contenidos con nuevas conspiraciones relacionadas con el 6 de enero o las elecciones de 2020 que violen sus políticas, según la portavoz Ivy Choi.

«Nuestros sistemas están señalando activamente los canales de alta autoridad y limitando la difusión de desinformación dañina para temas relacionados con las elecciones», dijo Choi en un comunicado.

Estos esfuerzos se producen después de que Facebook, Twitter, YouTube y otras plataformas se hayan enfrentado a intensas críticas durante el último año por el papel de las redes sociales en la crisis. Las empresas, por su parte, han argumentado en gran medida que contaban con políticas sólidas incluso antes de los disturbios en el Capitolio y que, desde entonces, no han hecho más que reforzar las protecciones y su aplicación.

Cuando los agitadores intensificaron su ataque al Capitolio el pasado 6 de enero, entrando en el edificio, saqueando las oficinas del Congreso y subyugando a los oficiales, las plataformas de las redes sociales se apresuraron a hacer lo que pudieron para frenar las consecuencias, primero etiquetando las publicaciones del presidente Trump, luego eliminándolas y después suspendiendo su cuenta por completo.

Pero algunos expertos se preguntan si el enfoque de la moderación ha cambiado sustancialmente en el último año.
«Aunque ciertamente espero que hayan aprendido de lo ocurrido, si lo han hecho, no lo han comunicado realmente de forma pública», dijo Laura Edelson, investigadora de la Universidad de Nueva York que estudia la comunicación política en línea.

Esto es especialmente preocupante, dice Edelson, ya que podría haber un resurgimiento de la desinformación sobre el asalto y la teoría de la conspiración de que las elecciones fueron robadas, apareciendo alrededor del aniversario del asalto. «Gran parte de la narrativa dentro del movimiento de la ultraderecha es que, en primer lugar, [el asalto] no fue tan malo, y en segundo lugar, que en realidad fueron los otros los que lo hicieron», dijo.

En entrevistas previas al aniversario del 6 de enero, algunos partidarios de Trump en Washington dijeron a CNN que creen que los demócratas o el FBI fueron los responsables del ataque.

La respuesta de Facebook al 6 de enero

Facebook, ahora una división de Meta, fue la plataforma de medios sociales que más se vio afectada por el 6 de enero, debido en parte a los documentos internos filtrados por la denunciante Frances Haugen, que mostraban que la compañía había retirado las protecciones que había implementado para las elecciones de 2020 antes del 6 de enero del año pasado. Haugen dijo a la SEC en una presentación que la compañía solo volvió a implementar algunas de esas protecciones después de que comenzara el asalto.

Días después de los disturbios en el Capitolio, Facebook prohibió el contenido sobre «stop the steal». Y, a nivel interno, los investigadores analizaron por qué la empresa no pudo impedir el crecimiento del movimiento, según revelaron los documentos publicados desde entonces por Haugen (y obtenidos por CNN de una fuente del Congreso). Meta también ha tomado medidas para «interrumpir los movimientos sociales militarizados» y evitar que QAnon y las milicias se organicen en Facebook, dijo el vicepresidente de integridad de Meta, Guy Rosen, en una entrada de blog de octubre sobre los esfuerzos de la compañía en torno a las elecciones de 2020.

Meta rebatió las afirmaciones de Haugen y trató de distanciarse del ataque. Nick Clegg, vicepresidente de Asuntos Globales de la empresa, declaró a CNN en octubre que es «ridículo» culpar de los disturbios a las redes sociales. «La responsabilidad de la violencia del 6 de enero y de la insurrección de ese día recae directamente en las personas que infligieron la violencia y en las que la alentaron», dijo Clegg.

Sin embargo, los investigadores afirman que la empresa sigue luchando por combatir la desinformación y los contenidos extremistas.

«No hemos visto realmente ningún cambio sustancial en la moderación de contenidos de Facebook del que hayan hablado públicamente o que haya sido detectable externamente», dijo Edelson. «Parece que externamente siguen utilizando herramientas de concordancia de palabras clave bastante rudimentarias para identificar contenido problemático, ya sea discurso de odio o desinformación».

Meta señaló en una entrada de blog de septiembre que sus sistemas de Inteligencia Artificial han mejorado en la eliminación proactiva de contenidos problemáticos, como el discurso de odio. Y en su informe de noviembre sobre el cumplimiento de las normas comunitarias, la empresa afirmó que la prevalencia de las visualizaciones de contenidos de incitación al odio frente a otros tipos de contenidos disminuyó por cuarto trimestre consecutivo.

Un nuevo informe publicado este martes por el grupo de investigación y defensa de la tecnología Tech Transparency Project (TTP) descubrió que el contenido relacionado con los «Three Percenters», un grupo extremista y antigubernamental cuyos seguidores fueron acusados en relación con el asalto del 6 de enero, sigue estando ampliamente disponible en Facebook, algunos de los cuales utilizan «milicia» en los nombres de los grupos o incluyen símbolos conocidos asociados al grupo. Según el informe, cuando los investigadores de TTP examinaron estos contenidos, las funciones «amigos sugeridos» y «páginas relacionadas» de Facebook recomendaron cuentas o páginas con imágenes similares. (TTP está financiado en parte por una organización fundada por Pierre Omidyar).

ANÁLISIS | El 6 de enero puede ser solo un anticipo de una ruptura democrática más profunda

«A medida que los estadounidenses se acercan al primer aniversario del asalto, el TTP ha encontrado muchos de los mismos patrones preocupantes en Facebook, ya que la empresa sigue pasando por alto a los grupos militantes que suponen una amenaza para la democracia y el Estado de Derecho», afirma el informe, y añade que «los algoritmos y las herramientas de publicidad de Facebook suelen promover este tipo de contenido entre los usuarios».

«Hemos eliminado varios de estos grupos por violar nuestras políticas», dijo el portavoz de Meta, Kevin McAlister, en una declaración a CNN sobre el informe de TTP.

Facebook dice que ha eliminado miles de grupos, páginas, perfiles y otros contenidos relacionados con movimientos sociales militarizados y ha prohibido ese tipo de organizaciones, incluidos los Three Percenters, y señaló que las páginas y los grupos citados en el informe de TTP tenían un número relativamente pequeño de seguidores.

Otros actores

Queda claro que el panorama de la desinformación se extiende mucho más allá de Facebook, incluso a plataformas más marginales, como Gab, que han ganado popularidad tras el 6 de enero gracias a sus promesas de no moderar los contenidos, mientras las empresas más grandes se enfrentaban a las peticiones de tomar medidas contra el discurso del odio, la desinformación y los grupos violentos.

En agosto, la Comisión Selecta de la Cámara de Representantes que investiga los disturbios letales del 6 de enero en el Capitolio envió cartas a 15 empresas de redes sociales, entre ellas Facebook, YouTube y Twitter, con el fin de entender cómo existía en sus plataformas la desinformación y los esfuerzos por anular las elecciones por parte de actores tanto extranjeros como nacionales.

Seis días después del ataque, Twitter dijo que había eliminado 70.000 cuentas que difundían teorías conspirativas y contenido de QAnon. Desde entonces, la compañía dice que eliminó miles de cuentas más por violar su política contra la «actividad dañina coordinada» y también dice que prohíbe los grupos extremistas violentos.

«El compromiso y el enfoque a través del gobierno, la sociedad civil y el sector privado también son críticos», dijo el portavoz de Twitter. «Reconocemos que Twitter tiene un papel importante que desempeñar, y estamos comprometidos a hacer nuestra parte».

Exingeniero en YouTube dice que no previnieron la desinformación al desarrollar su algoritmo

YouTube dijo que en los meses anteriores a los disturbios del Capitolio había eliminado los canales de varios grupos que luego se asociaron con el ataque, como los relacionados con los Proud Boys y QAnon, por violar sus políticas existentes sobre el odio, el acoso y la integridad electoral. Durante el asalto y en los días posteriores, la compañía retiró las transmisiones en vivo de los disturbios y otros contenidos relacionados que violaban sus políticas, y YouTube dice que sus sistemas son más propensos a dirigir a los usuarios a fuentes autorizadas de información sobre las elecciones.

«A lo largo del último año, hemos eliminado decenas de miles de videos por infringir nuestras políticas relacionadas con las elecciones en EE.UU., la mayoría antes de llegar a las 100 visualizaciones», dijo Choi, de YouTube. «Seguimos atentos de cara a las elecciones de 2022 y nuestros equipos siguen vigilando de cerca y actuando rápidamente ante la desinformación electoral».

— Oliver Darcy de CNN contribuyó con este reportaje.

Feedzy

Por

0
    0
    Tu carrito
    Tu carrito está vacíoRegresar para ver