• Eduardo J. Villarreal S.

CEOs de tecnología testificarán sobre el papel de las redes sociales en ataque al Capitolio

Los ejecutivos de las redes sociales responderán directamente al Congreso por su papel en los ataques de enero contra el Capitolio de Estados Unidos esta semana. Mark Zuckerberg de Facebook, Jack Dorsey de Twitter y Sundar Pichai de Google aparecerán virtualmente ante un comité conjunto de la Cámara el jueves a las 10 a.m..

La audiencia, realizada por el Subcomité de Comunicaciones y Tecnología de la Cámara de Representantes y el Subcomité de Protección al Consumidor y Comercio, se centrará en el papel de las redes sociales en la difusión de desinformación, extremismo y desinformación. El Comité de Energía y Comercio celebró anteriormente una audiencia paralela considerando el papel de los medios tradicionales en la promoción de esos mismos males sociales.


A principios de este mes, el presidente de Energía y Comercio, Frank Pallone Jr., junto con más de 20 demócratas más, envió una carta a Zuckerberg presionando al CEO de Facebook para que respondiera sobre por qué aparecieron anuncios de equipos tácticos junto a publicaciones que promocionaban los disturbios en el Capitolio.


"Dirigir anuncios de esta manera es peligroso y tiene el potencial de fomentar actos de violencia", escribieron los autores de la carta.

A fines de enero, Facebook dijo que detendría anuncios que mostraran accesorios de armas y equipos relacionados.


Si bien el subcomité ha manifestado su interés en las prácticas publicitarias de Facebook, el contenido orgánico en el sitio históricamente ha presentado un problema mucho mayor. En el período de incertidumbre que siguió a las elecciones del año pasado, el movimiento pro-Trump “Stop the Steal” aumentó a proporciones masivas en las redes sociales, particularmente en los grupos de Facebook. La compañía tomó medidas incrementales en ese momento, pero ese mismo movimiento, nacido de la desinformación política, es lo que impulsó a los alborotadores del Capitolio a interrumpir el conteo de votos y promulgar violencia mortal el 6 de enero.


Es probable que la audiencia también profundice en la organización de extremistas a través de grupos de Facebook. Los presidentes de ambos subcomités que interrogarán a los directores ejecutivos de tecnología esta semana cuestionaron previamente a Facebook sobre los informes de que la compañía era muy consciente de que sus recomendaciones grupales algorítmicas estaban canalizando a los usuarios hacia el extremismo. A pesar de las advertencias de los expertos, Facebook siguió permitiendo que milicias armadas antigubernamentales se organizaran abiertamente en la plataforma hasta finales de 2020. Y a pesar de las prohibiciones, algunas continuaron haciéndolo.


Según los informes, el Departamento de Justicia está considerando acusar de sedición a los miembros de los Oath Keepers, un destacado grupo armado de la milicia estadounidense involucrado en el ataque al Capitolio.


Facebook juega un papel muy importante en la distribución de contenido extremista y su difusión, pero no está solo. La información errónea que socava la integridad de los resultados de las elecciones de Estados Unidos es generalmente tan fácil de encontrar en YouTube y Twitter, aunque esas redes sociales no están diseñadas para conectar y movilizar a las personas de la misma manera que lo hacen los grupos de Facebook.


Facebook comenzó a corregir sus propias reglas en torno al extremismo, lentamente hasta 2020 y luego rápidamente en enero, cuando la compañía retiró al ex presidente Trump de la plataforma. La junta de supervisión de políticas externas de Facebook continúa revisando esa decisión y podría revertirla en las próximas semanas.


En el transcurso del último año, Twitter hizo un esfuerzo por desmitificar algunas de sus propias decisiones políticas, comunicando de manera transparente los cambios e introduciendo las ideas que estaba considerando. Bajo la dirección de Dorsey, la compañía trató las reglas de su plataforma como un documento en vivo, uno con el que ha comenzado a jugar en un esfuerzo por mejorar el comportamiento del usuario.


Si la reciente toma de decisiones de política de Twitter es similar a pensar en voz alta, YouTube adoptó el enfoque opuesto. La compañía no fue tan proactiva en apuntalar sus defensas antes de las elecciones de 2020 y rara vez respondió en tiempo real a los eventos. YouTube esperó un mes completo después de la victoria de Biden para articular reglas que eliminarían la plataforma de desinformación que declara que las elecciones le fueron robadas a Trump.


Es de esperar que la audiencia conjunta pueda profundizar un poco más en por qué fue así, pero no contamos con ello. La decisión de los subcomités de llevar a testificar al director ejecutivo de Google, Sundar Pichai, es un poco extraña teniendo en cuenta que la directora ejecutiva de YouTube, Susan Wojcicki, que aún no ha sido llamada al Congreso para una de estas audiencias tecnológicas de alto perfil, sería el mejor testigo. Pichai es, en última instancia, responsable de lo que hace YouTube, pero en audiencias pasadas ha demostrado ser un testigo muy pulido que es hábil para neutralizar las críticas generales con detalles técnicos.


En última instancia, Wojcicki tendría más información sobre las políticas de desinformación y extremismo de YouTube y la razón por la que la plataforma se ha demorado en cuestiones de odio y desinformación, aplicando sus propias políticas de manera desigual cuando decide hacerlo.