top of page
Buscar
  • VK

Facebook mantendrá la cuenta del ex Presidente Trump bloqueada hasta 2023: Preguntas, no respuestas


Autogobierno online


La historia que quiero contarles obliga a hacer un brevísimo repaso de la sección 230 de la Ley federal de EE.UU de Decencia de las Comunicaciones de 1996, la cual ha cambiado la historia de Internet con 26 palabras. Textualmente la Sección 230 c) 1), dice que "Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o el publicador de cualquier información proporcionada por otro proveedor de contenido de información". Para los desconfiados como yo, tienen razón, en español son 28 palabras pero cuenten en inglés y verán.

Esta disposición ha permitido evitar que las grandes plataformas sean civilmente responsables por el contenido potencialmente dañino -y generador de responsabilidad- creado y/o difundido por los usuarios. Y también ha permitido -nobleza obliga- el desarrollo de muchísimas startups, páginas webs y blogs que carecen de los recursos para auditar el contenido generado por los usuarios.

Un día me encantaría que conversemos sobre esto en mayor detalle -ya se me está ocurriendo quién nos puede ayudar- pero, por ahora, solo quería anticiparles que uno de los principales objetivos de esta ley ha sido promover la autorregulación de contenido por parte de las plataformas. En este marco, numerosas empresas como Twitter, Facebook, SnapChat y YouTube comenzaron a adoptar diversas reglas con el fin de moderar el contenido de los usuarios.

Entre dichas reglas nos encontramos con los llamados “Estándares Comunitarios” aprobados por Facebook y consentidos por nosotros, sus usuarios, al crear nuestras cuentas. Básicamente tienen por objeto disuadir conductas violatorias de los derechos de otros (ofensivas, violentas, fraudulentas, infringiendo propiedad intelectual, entre otras). Y si incurrimos en una de las conductas prohibidas, la plataforma eliminará el contenido objetable y, en caso de persistir, eventualmente bloqueará nuestra cuenta por un tiempo o para siempre.


El caso del ex presidente Donald Trump


Precisamente aplicando sus estándares comunitarios, el 4 de junio de 2021, Facebook anunció la decisión de suspender la cuenta del ex presidente estadounidense Donald Trump por 2 años a partir del 7 de enero de 2021.





¿Se acuerdan de dónde viene esto? El 6 de enero de 2021, durante el proceso de conteo final de los votos para la elección de presidente - por cierto, en EE.UU el presidente y vice no se eligen por el voto popular directo, sino por un Colegio Electoral con representantes elegidos por el pueblo de cada Estado -, un grupo de manifestantes se trasladó a Washington D.C. y entró por la fuerza al Capitolio. 5 personas murieron y otras tantas fueron heridas.


A las 4:21 pm EST el entonces presidente Trump posteó un video en Facebook e Instagram diciendo lo siguiente (lo traduzco porque creo que vale la pena para entender lo que viene después):


Conozco su dolor. Sé que están dolidos. Nos robaron la elección. Ganamos por mucho y todos los saben, especialmente los del otro lado, pero ahora deben ir a sus casas. Tenemos que tener paz. Tenemos que tener ley y orden. Tenemos que respetar a nuestra gente con ley y orden. No queremos a nadie lastimado. Son días muy difíciles. Nunca ha habido tiempos como estos, nunca ha sucedido algo así antes, donde nos lo saquen de las manos a todos, a mí, a ustedes, al país. Esta elección fue fraudulenta pero no podemos regalar excusas a esta gente. Tenemos que tener paz. Así que ahora vayan a casa. Los queremos. Ustedes son muy especiales. Saben lo que pasa. Saben la forma en que otros son tratados por quienes son el demonio. Sé como se sienten pero vayan a casa en paz”.


A las 5:41 pm EST, Facebook eliminó el posteo por entender que violaba sus estándares comunitarios respecto a individuos y organizaciones peligrosas.


Luego, a las 6:07 pm EST, mientras la Policía intentaba retomar el control del Capitolio, el ex Presidente Trump publicó el siguiente post en Facebook:


"Estas son las cosas que suceden cuando una victoria electoral tan contundente es descaradamente robada a grandes patriotas que fueron maltratados por tanto tiempo. Vayan a casa con amor y en paz. Y acuérdense de este día para siempre”.


A las 6:15 pm EST del mismo día, Facebook borró este segundo posteo nuevamente por entender que violaba sus estándares comunitarios respecto a individuos y organizaciones peligrosas. También bloqueó la cuenta de Trump en Facebook e Instagram por 24 horas.


El 7 de enero Facebook anunció el bloqueo indefinido de la cuenta de Trump por lo menos por 2 semanas, hasta que se haya completado la transición de mando - en EE.UU los presidentes asumen los 20 de enero (ir a curiosidatos si les divierte) - en forma pacífica.


Trump dejó de ser presidente el 20 de enero de 2021. El 21 de enero Facebook anunció que refirió el caso al Consejo Asesor de Contenidos ¿Ahhhh? ¿Qué sería esto hermana? Paciencia, ya les cuento.


Consejo Asesor de Contenidos de Facebook


Cuenta la leyenda que (mentira, data confirmada por una profe de Derecho de Internet que "cubrió" el proceso), en enero de 2018, el abogado constitucionalista de Harvard Noah Feldam - que entre otras cosas es uno de los redactores de la nueva Constitución de Irak - le propuso al CEO y cofundador (no nos olvidemos del pobre -no tan pobre- Eduardo) de Facebook, Mark Zuckerberg, la creación de la Suprema Corte de Justicia de Facebook.


A Mark le gustó la idea y en noviembre de 2018, después de años de batallas frías con la prensa, académicos, ONGs y usuarios, el CEO anunció la creación de un cuerpo independiente para revisar las decisiones de moderación de contenido adoptadas por Facebook.


Desde entonces se inició un periodo de consulta abierto a propuestas del público y finalmente Facebook les ofreció ser miembros a 19 cracks (académicos, especialistas en medios, tecnología y derecho constitucional, incluyendo una premio nobel de la paz y una ex primera ministra de Dinamarca). En cuanto a la estructura, el Consejo Asesor de Contenido se creó como una especie de fideicomiso (Purpose Trust) bajo la ley del Estado de Delaware - donde por default conviene crear sociedades en EE.UU -. Facebook colocó $130 millones de dólares para su financiamiento.


Respecto a su misión, el Consejo asesor de contenido se creó para ayudar a Facebook a responder algunas de las preguntas más difíciles sobre la libertad de expresión online: qué contenido eliminar, cuál conservar y por qué.





Por ahora hay dos tipos de decisiones sobre contenido que nosotros los usuarios podemos apelar ante el Consejo asesor de contenido:

1. Las decisiones relacionadas con nuestro propio contenido que por alguna razón Facebook eliminó o “bajó” (take down dicen en inglés),

2. Las decisiones relacionadas con el contenido de otras personas que reportamos por considerarlo violatorio de los estándares comunitarios y Facebook decidió no eliminar.


Pero esperen, hay que “agotar la vía”. De hecho, para poder apelar una decisión de Facebook relacionada con el contenido ante el Consejo Asesor, antes debemos solicitar una revisión de nuestro contenido o del contenido ajeno que reportamos.


No obstante, no todo el contenido ni todas las decisiones sobre contenido se admiten en las apelaciones. Digamos que Facebook va decidiendo qué casos se admiten y cuáles no. Simplificando al máximo, es como si fuera un Recurso Extraordinario Federal que se interpone ante el máximo tribunal que tomó la decisión (el propio Facebook), quien también debe decidir si admite la impugnación. En caso de admitirse la impugnación, el caso se eleva -recurriendo nuevamente a la analogía- a la Corte Suprema de Justicia de la Nación (que sería el Consejo Asesor de Contenidos).


Y una vez que la apelación es admitida, el Consejo decide si realizará o no la revisión. El Consejo solo selecciona algunas de las apelaciones que cumplen los requisitos para revisión, por lo que, tal vez, no seleccionen la nuestra.


Por último, Facebook también tiene la potestad de elevar casos directamente al Consejo, como lo hizo en el caso de Trump.


Todos los casos son asignados a un panel de miembros que debe adoptar la decisión del caso, preferentemente en consenso. Si no se puede llegar a un consenso, los casos se resuelven por mayoría. A criterio del Consejo, la decisión final puede incluir una declaración de asesoramiento normativo no vinculante que Facebook podrá considerar para guiar el desarrollo de sus políticas a futuro.


Volviendo al caso del ex presidente Trump


El 5 de mayo de 2021 el Consejo ratificó la decisión de Facebook en cuanto a la imposición de restricciones a la cuenta de Trump por haber expresado apoyo y/o elogio hacia grupos, líderes o individuos intervinientes en acciones violatorias a los estándares comunitarios de Facebook, particularmente de violencia.


Sin embargo, manifestó que Facebook debía rever la decisión e imponer un plazo determinado a la suspensión, proporcional a la violación y de acuerdo a una fundamentación razonable. Como anticipamos, Facebook así lo hizo el 4 de junio pasado, y decidió mantener la cuenta bloqueada hasta el 7 de enero de 2023.


Para aquellos que tengan tiempo en algún momento, creo que vale la pena leer la decisión del Consejo Asesor. Van a ver que el Consejo habla y decide como un órgano del Poder Judicial. Aplica normas de derecho internacional de derechos humanos y hasta admite amicus curiae (en el caso de Trump el Consejo recibió 9.666 presentaciones, les prometo que no estoy exagerando). Y sus decisiones impactan a los más de 2000 millones de usuarios de Facebook, decidiendo qué contenido está disponible y cuál no.


En el caso de Trump, por ejemplo, Facebook y el Consejo Asesor de Contenidos - si es que aceptamos la existencia del último como entidad independiente- han silenciado la fuente primaria de comunicación de un ex presidente y líder político con sus seguidores y toda la comunidad.


Vale la pena analizar, en particular, si la medida, justificada inicialmente for Facebook hasta la asunción pacífica del Presidente Biden, mantiene su fundamentación por dos años más. Facebook ha dicho que sí. Y no pareciera que el Consejo Asesor pueda o tenga que volver a intervenir.


Implicancias


Fuera de este caso particular, tenemos que pensar en la libertad editorial de las plataformas que a su vez también implica el resguardo de derechos de jerarquía constitucional. Y, no menos importante, la iniciativa de Facebook es completamente novedosa. Con esto quiero decir que ninguna de las plataformas más conocidas ha implementado un mecanismo semejante de revisión de las decisiones internas de moderación de contenido. Es decir que Facebook se ha autolimitado en pos de un autogobierno sujeto a contralor de expertos.


Nos enfrentamos a un enorme interrogante como sociedad. Sostener el modelo del Consejo Asesor de Contenidos de Facebook implica aceptar, en nombre de la libertad editorial de las plataformas, que una entidad no elegida directa ni indirectamente por el pueblo decida qué contenido publicado online - casualmente en el medio donde sucede la enorme mayoría de las interacciones de nuestra época - es objetable. Las decisiones del Consejo pueden afectar eventualmente la libertad de expresión de los usuarios y la libertad de prensa.


¿Cuáles son las alternativas? Una alternativa es aceptar que las plataformas sigan moderando contenido en sus ámbitos respectivos de acuerdo a sus propias reglas, sin instancias de control. También afectando, eventualmente, la libertad de expresión de los usuarios y la libertad de prensa, pero esta vez sin poder apelar la decisión para que resuelva un órgano distinto.


En el otro extremo aparece la alternativa de aceptar los riesgos que trae consigo la disponibilidad de absolutamente todo tipo de contenido online, bajo la exclusiva responsabilidad del usuario generador del contenido (si es que puede individualizarse a una persona, dada la enorme difusión del uso de pseudónimos), hasta tanto un órgano judicial - a sus tiempos- decida su eventual remoción. Entre tales riesgos podemos imaginar la difusión de noticias falsas que pueden llegar a comprometer un resultado electoral, pero también contenidos llenos de odio y violencia hacia una persona, grupo o comunidad en particular. Imaginemos el daño que puede causar la difusión de cierto material durante varias horas o incluso días hasta que un juez decida su eliminación. Ciertos ejemplos pueden ser aterradores.


Quizás debiéramos pensar en otras alternativas. Normativas creativas pueden ayudar, tanto sea gubernamentales como intergubernamentales.


No tengo las cualidades técnicas ni una convicción tan clara como para cometer la imprudencia de hacer un juicio de valor a esta altura. Solo quiero dejarnos pensando, como usuarios y ciudadanos, en las implicancias que pueden tener los sistemas de autogobierno (o su inexistencia) sobre derechos fundamentales.


----


bottom of page