*

Agencia Uruguaya de Noticias
Loading
con firma
Pablo Stefanoni Pablo Stefanoni
Cuba: ¿Fuera del Estado, nada?
Stefano Casini Stefano Casini
Que no nos gane la tristeza
Marcelo Marchese Marcelo Marchese
Un gobierno siervo de los organismos internacionales
Pablo Tosquellas Pablo Tosquellas
Gordo, dame una chapa
Stella Maris Zaffaroni Stella Maris Zaffaroni
¿Sentís mal olor?
Emiliano Galasso Emiliano Galasso
Sobre la representación gráfica del COVID
Sergio Reyes Sergio Reyes
La infantilización de la sociedad
Esteban Valenti Esteban Valenti
El papel de Tabaré Vázquez
Jaime Igorra Jaime Igorra
Sigue vigente y lo reitero: “Arroyito serrano que viene bajando al llano, agua clarita traes, perfume de manantiales.”
Fernando Gil Díaz Fernando Gil Díaz
Desidia y poco apego
Juan Pedro Ciganda Juan Pedro Ciganda
La antesala de los parabrisas
Carlos Grau Pérez Carlos Grau Pérez
En medio de una turbulencia, ¿Qué puede derramar el efecto derrame?
Jorge Aniceto Molinari Jorge Aniceto Molinari
Intercambio: China, Xi Jinping. (Abordando eso gris, que parece la teoría)
Luis E. Sabini Fernández Luis E. Sabini Fernández
COVID 19: la medicalización de la sociedad
Roberto Cyjon Roberto Cyjon
LA TIERRA BALDÍA DE IVÁN SOLARICH Y SU ELENCO
Aldo Mazzucchelli Aldo Mazzucchelli
La gran prensa ante la pandemia
Nicolás Burgueño Kosenco Nicolás Burgueño Kosenco
Licencia para opinar con distanciamiento físico sostenido y tapabocas
Hebert Abimorad Hebert Abimorad
Se idolatra la tragedia
José W. Legaspi José W. Legaspi
Maradona no fue ni será dios, es inolvidable y eterno
Ariel Bank Ariel Bank
La democracia contrataca
Rodolfo M. Irigoyen Rodolfo M. Irigoyen
Pronosticar el pasado
Jorge Ángel Pérez Jorge Ángel Pérez
La isla “bocarriba”: Cuba precisa los sueños, y las acciones…
Nina Nina
Cincuenta y dos días
Conexión México. Por Ruby Soriano Conexión México. Por Ruby Soriano
Paraíso de la impunidad militar en México
William Marino William Marino
El dueño de las bananas
Michael Añasco Michael Añasco
Los cuatro grandes reinicios del siglo XX
Danilo Arbilla Danilo Arbilla
Europa no vale una misa
Jaime Secco Jaime Secco
Mi carnicero y los precios de Ancap
Catarina de Albuquerque Catarina de Albuquerque
Invertir en Agua y Saneamiento es vital para nuestras economías
Luis Fernández Luis Fernández
Sugerencias
Carlos Pérez Pereira Carlos Pérez Pereira
El “servicio sexual” y la seducción de los poderosos
Gustavo “Tato” Olmos Gustavo “Tato” Olmos
El chantaje como forma de hacer política
Mónica Díaz Mónica Díaz
Buena vecina
Roberto Savio Roberto Savio
Trump se va, pero no el trumpismo
Fernando López D’Alesandro Fernando López D’Alesandro
La Revolución Rusa y Uruguay
Alejandrina Morelli Alejandrina Morelli
Rodolfo Rabanal, escritor y periodista, falleció en Punta del Este
Luis C. Turiansky Luis C. Turiansky
“Yo soy antisemita"
Roberto Sansón Mizrahi Roberto Sansón Mizrahi
La hora de los pueblos unidos en su diversidad
Ana Jerozolimski Ana Jerozolimski
Para variar, en medio de la pandemia, un día de fiesta en Israel
Enrique Canon Enrique Canon
La autocrítica es estratégica
Carlos Vivas, Homero Bagnulo Carlos Vivas, Homero Bagnulo
Ayudando a las grandes compañías del medicamento
Juan Pedro Ribas Juan Pedro Ribas
Historias reales e intemporales. El sentido del deber con amor. General Licandro
Emir Sader Emir Sader
La hora de la nueva izquierda chilena
Ariel Bank Ariel Bank
Los 75 del Peronismo
Lic. María Cristina Azcona Lic. María Cristina Azcona
La educación de la moralidad para padres e hijos, en el contexto de la nueva normalidad
Luis Anastasia Luis Anastasia
Reflexiones sobre Covid-19 – Tercera parte
QU Dongyu, Director General de FAO QU Dongyu, Director General de FAO
La clave para recuperarse del Covid-19 es la innovación, particularmente la digitalización
José Escárate Mansilla José Escárate Mansilla
Chile…Plebiscito AD-PORTAS
Álvaro Ons* Álvaro Ons*
Flexibilización de las negociaciones comerciales en el MERCOSUR: ¿una trampa para Uruguay?
Liliana Pertuy Liliana Pertuy
Apuntes primarios para una autocrítica responsable
Juan Pedro Mir Juan Pedro Mir
Justicia social y educativa: el desafío de la presencialidad
Omar Fuentes Omar Fuentes
¡Basta de joder con Venezuela!
Jorge Schneidermann Jorge Schneidermann
“Las víctimas”, un nuevo y revulsivo libro de la psicoanalista argentina Sonia Cesio (*)
Juan Santini Juan Santini
A veces la realidad parece ficción, pero es la tozuda realidad
Héctor Musto Héctor Musto
¿Por qué el FA perdió las elecciones? Apuntes y aportes para una autocrítica necesaria.
Roberto Elissalde Roberto Elissalde
¿Qué pasó con los Centros MEC?
Enrique Gerschuni Enrique Gerschuni
Reflexiones sobre las pasadas elecciones departamentales y municipales
Ignacio Munyo Ignacio Munyo
¿Qué es CERES?
Sara Granados, consultora de FAO Sara Granados, consultora de FAO
Primer día mundial de la de la concienciación sobre la pérdida y desperdicio de alimentos
Andrea Burstin Andrea Burstin
Mercosur, paredón y después
Federico Fasano Mertens Federico Fasano Mertens
La democracia no termina en las urnas
Daniel Vidart Daniel Vidart
Un domingo de “votaciones”
Sabina Goldaracena Sabina Goldaracena
El puerto de conveniencia para las flotas pesqueras del Atlántico Sudoccidental
Dr Guillermo Chiribao Dr Guillermo Chiribao
Cuando los de afuera no son de palo
Ismael Blanco Ismael Blanco
Partido Comunista
Elena Grauert Elena Grauert
Oficinas, funciones y funcionarios
Filomena Narducci Filomena Narducci
Yo voto "No" y tu?
Constanza Moreira. Constanza Moreira.
Crónica de un secuestro
Álvaro Rico Álvaro Rico
El honor militar en los años 60
Gastón Grisoni Gastón Grisoni
¡Construyendo futuro!
Federico Arregui Federico Arregui
Libertad orientales
Carlos Wuhl Carlos Wuhl
Francia 2020: el racismo ordinario
Gonzalo Zunino (*) Gonzalo Zunino (*)
Por qué y para qué reformar la Seguridad Social en Uruguay
Jaime Igorra Jaime Igorra
Qué hacer con el estadio centenario
Daniel Mordecki Daniel Mordecki
Virtual Empate
Julio García Julio García
Empatía y Resiliencia
Jan Steverlynck Jan Steverlynck
Un destacado servidor público uruguayo
María Ligia Vivas María Ligia Vivas
Coronavirus, el mejor nido de explotación Laboral creado por el imperio
Cuentos & versos en cuarentena Cuentos & versos en cuarentena
Les presentamos los trabajos de Enrique Umbre Cardinale y de Sergio Nicolás Mato. Seguimos recibiendo textos en: uypress@gmail.com.    
Gustavo Viñales Gustavo Viñales
Riesgos en la flexibilización del régimen de residencia fiscal en Uruguay
Jorge Pozzi Jorge Pozzi
Sobre pandemia, consumo y consumismo
Rafael Sanseviero Rafael Sanseviero
Andrés Vargas (Dedicado al colectivo Ni todo esta perdido- NITEP)
Cecilia Alonso* Cecilia Alonso*
La plataforma educativa CREA del Plan Ceibal en el top de las tendencias de Google
Fernando Lorenzo (*) y Luis Miguel Galindo (**) Fernando Lorenzo (*) y Luis Miguel Galindo (**)
La pandemia, “la nueva normalidad” y el desarrollo de largo plazo
Jorge Helft Jorge Helft
Crítica de la cultura uruguaya: un ojo extranjero experto
Sergio Rodríguez Gelfenstein Sergio Rodríguez Gelfenstein
Las verdades de la Historia
Iani Haniotis Curbelo Iani Haniotis Curbelo
Las máscaras del virus, una reflexión (más)
Nelson Villarreal Durán Nelson Villarreal Durán
Generación 83: Creando puentes y tejidos para fortalecer la democracia
Cristina Retta Cristina Retta
Uruguay más allá de sus fronteras. Alcances y límites de la política de vinculación del Departamento 20
José Antonio Vera José Antonio Vera
El tirano fue más barato
Pablo Romero García Pablo Romero García
“Educar, un asunto de todos” (o el síntoma del tapabocas)
Bibiana Lanzilotta / Federico Araya Bibiana Lanzilotta / Federico Araya
La Regla Fiscal en la LUC: el país se debe una discusión profunda e informada
María Noel Vaeza María Noel Vaeza
La pandemia del COVID-19 acentúa la situación de precariedad para las trabajadoras remuneradas del hogar
Daniela Yelpo Daniela Yelpo
Política: entre la pasión y la disección, una dualidad inexorable
Gerard Cretenze Gerard Cretenze
Esta nena está causando problemas
Daniel Feldman Daniel Feldman
Si usted no tiene coronavirus ¡jódase!
Cristina Masoller Cristina Masoller
Aprender de los Errores
Verónica Lay Verónica Lay
Protocolos Covid-19 y Ley de Responsabilidad Penal Empresarial
Andrea Valenti Andrea Valenti
Las fotos del presente
Selva Andreoli Selva Andreoli
¡Presente!
Alvaro Asti Alvaro Asti
Relato con Memoria
Charles Carrera Charles Carrera
Son memoria, son presente
Henry Segura Henry Segura
Réplica a Beto Peyrou: Los Relatos de los Santos Inocentes
Juan Carlos Pesok Juan Carlos Pesok
Castigos y Remedios
Jorge Eiris Jorge Eiris
Un fallo que lesiona derechos de los uruguayos del exterior
Alberto Peyrou Alberto Peyrou
Respuesta a la nota de Henry Segura en UYPRESS titulada: Carta abierta a Beto Peyrou: Las Hogueras de las Conversiones
Gerardo Bleier Gerardo Bleier
Ante un nuevo escenario político
Víctor Bacchetta Víctor Bacchetta
El nuevo Ministerio de Ambiente y cambios en áreas protegidas
Daniel Espíndola Daniel Espíndola
La educación virtualizada; tanto asignatura pendiente como una oportunidad para la innovación
Jorge Braun Jorge Braun
Virus chino. La pandemia económica, quién la paga ... ¿China?
Carlos A. Gadea Carlos A. Gadea
La sociedad del contagio
Lic. Leonardo Rodríguez Maglio Lic. Leonardo Rodríguez Maglio
Mi panel de información, sintonía, y soluciones
Ernesto Nieto Ernesto Nieto
De tripas corazón
José Carlos Mahía José Carlos Mahía
El impacto del Coronavirus y los desafíos del presente en Uruguay
Daniel Mesa Daniel Mesa
La delgada linea que limita la emergencia sanitaria y el estado de derecho
Gabriel Courtoisie Gabriel Courtoisie
¿La ley es más inteligente que su autor?
Iván Solarich Iván Solarich
Tristezas o no... con gel
Jorge Jauri Jorge Jauri
Los miedos reales que provoca la Ley de Urgencia
Regino López Regino López
Una posible salida a la crisis que afronta el sector citrícola
más columnistas



 
banner FLOW INTERNO 180 x 89
banner NICATEL INTERNO 180 x 89
banner CUCTSA INTERNO 180 x 89
Te encuentras en: Inicio | Secciones | Coberturas Especiales | Infoesfera

INFOBAE

La polémica por los contenidos en Facebook: ¿no puede o no quiere eliminar el odio?

18.10.2020

WASHINGTON (Gabriela Esquivada/Infobae) - La plataforma de Mark Zuckerberg y Twitter impidieron la circulación de un enlace al New York Post que perjudicaba a Joe Biden y estalló una polémica sobre cómo las redes utilizan la verificación de datos como excusa para la censura y aplican selectivamente sus reglas de moderación de la violencia en línea.

New York Post

 

El 14 de octubre The New York Post publicó un correo electrónico en el que Vadym Pozharskyi, número tres de la empresa Burisma, habría enviado en abril de 2015 a Hunter Biden, hijo del entonces vicepresidente de los Estados Unidos: "Querido Hunter, gracias por invitarme a Washington DC y darme la oportunidad de conocer a tu padre y pasar algún tiempo con él. Es realmente un honor y un placer". La correspondencia, básicamente, contradice al actual candidato demócrata a la presidencia, Joe Biden, quien ha negado tal encuentro como también el papel de su hijo en la gestión.

La nota, desde luego, comenzó a circular en las redes sociales. Hasta que las plataformas más importantes comenzaron a aplicar sus normas de moderación de contenido contra ella. Escribió Cristina Tardáguila, experta en verificación de datos, directora asociada de Fact-Checking Network y fundadora de Agência Lupa, la primera dedicada al tema en Brasil: "Parece que Facebook y Twitter han decidido asumir la posición que durante tanto tiempo han evitado", ironizó. "A menos de un mes del día de las elecciones, ambas compañías finalmente se convirtieron en árbitros de la verdad en internet. Son ingenuos aquellos que creen que esto no es peligroso".

Las plataformas han repetido que son soportes abiertos al contenido ajeno, por lo cual no deben ser reguladas como los medios y, sobre todo, no pueden regular a los usuarios sin violar el derecho fundamental a la libertad de expresión. Eso las liberaría de responsabilidad sobre lo que se publica en ellas, sobre todo del discurso de odio por el que son particularmente criticadas; sin embargo, en la vida real, dado que el medio es el mensaje, el argumento deja de tener asidero para convertirse apenas en una excusa para justificar más tráfico, y por ende ganar más dinero.

Entonces, ¿cómo es posible que la publicación del Post fuera identificada como un contenido potencialmente dañino, y no se permitiera que los usuarios la compartieran?

Por la misma razón que "Facebook elimina de manera coherente la propaganda de reclutamiento de ISIS y otros grupos islámico pero ha sido mucho menos agresiva a la hora de terminar con los grupos de supremacía blanca", explicó The New Yorker. Mientras el debate público se desorienta en conversaciones sobre si plataformas como las de Mark Zuckerberg deberían hacer más o menos por moderar o censurar el discurso discriminatorio, de odio o de violencia, nadie pregunta "cómo aplica Facebook sus reglas y quién se beneficia de ello".

 

Sigue el dinero

 

Aunque las redes sociales insisten en que son neutrales y cualquier contenido puede circular en ellas, en la vida real no permiten la celebración del nazismo, la exhibición de cuerpos desmembrados o la imagen de un bebé con un cigarrillo en la boca, por ejemplo. Facebook tiene una suerte de política de contenidos, las "Normas de implementación", que sus moderadores deben aplicar: un documento cambiante al que sólo accede personal selecto de la empresa, que se ofrece a los usuarios en una versión light como "Normas de la comunidad".

La regla que allí dice "eliminamos el contenido que glorifica la violencia", en el documento interno "enumera docenas de tipos de imágenes explícitas, como seres humanos carbonizados o quemados" y deriva a "subcategorías, definiciones técnicas y enlaces a materiales complementarios", describió Andrew Marantz -autor de Antisocial, una investigación sobre el extremismo en línea en los Estados Unidos- en el semanario de Nueva York. Al topar con esa clase de contenidos, los moderadores deben denunciarlos como "perturbadores".

 

¿Por qué no eliminar esos contenidos directamente?

 

La respuesta larga puede ser un paseo interesante por la revolución francesa, el concepto de libertad de expresión y la primera enmienda de la constitución de los Estados Unidos. La respuesta corta es una sola palabra: dinero.

"En teoría, a nadie se le permite publicar discurso de odio en Facebook. Sin embargo, muchos líderes mundiales -Rodrigo Duterte, de Filipinas; Narendra Modi, de la India; Donald Trump y otros- difunden rutinariamente discurso de odio y desinformación, en Facebook y en otros lugares", analizó Marantz. Si la compañía les aplicara a ellos, seguidos por millones de personas, los mismos criterios que a alguien con menos de 50 amigos, "sería algo arriesgado desde el punto de vista financiero". Como consecuencia, siguió el artículo, la red social ha errado a favor de que "los políticos publiquen lo que quieran, incluso cuando esto la ha llevado a debilitar sus propias reglas, aplicarlas selectivamente, reinterpretarlas creativamente o ignorarlas por completo".

Dave Willner, antiguo titular de políticas de contenido de Facebook, que creó las "Normas sobre abuso" de las que se derivaron las reglas actuales, observó que para el modelo de negocio de las redes sociales no hay buenas opciones al respecto: "Censurar a los líderes mundiales podría sentar un precedente preocupante". Pero si la posición de las plataformas de Zuckerberg es que el discurso de odio es inherentemente peligroso, ¿no sería más peligroso permitir que lo empleen precisamente aquellos que son famosos o poderosos?, argumentó el especialista que dejó Facebook en 2013 y actualmente es titular de política comunitaria en Airbnb.

Obviamente, la palabra dinero -al igual que sus vecinas fama y poder- también es la respuesta a por qué las plataformas interfirieron en la circulación del enlace a la nota del New York Post sobre Biden antes incluso de llevar a cabo la verificación de datos que podría haber establecido si el e-mail era cierto o falso: a menos de un mes de las elecciones presidenciales, es temporada de cosecha en la publicidad política de las campañas más ricas del mundo.

 

Una cuestión de imagen

 

"No existe un enfoque perfecto para la moderación de contenidos, pero al menos podrían tratar de lucir menos visiblemente codiciosos e incoherentes", dijo Willner, quien se convirtió en un crítico abierto a los ejecutivos de Menlo Park. Con él coincidió Rashad Robinson, presidente del grupo antiracista Color of Change: "El discurso de odio y la toxicidad se siguen multiplicando, y llega un punto en que uno dice 'Quizá a pesar de lo que sostiene, eliminar este material no es una prioridad para ellos'".

Marantz citó a Drew Pusateri, vocera de Facebook, al respecto: "Hemos invertido miles de millones de dólares para mantener el odio fuera de nuestra plataforma. Un informe reciente de la Comisión Europea estableció que Facebook evaluó el 95,7% de las denuncias de discurso de odio en menos de 24 horas, más rápido que YouTube y Twitter". Y a continuación citó a Robinson que, sin objetar todo ese poder, señaló: "Sucede que lo usan mal".

Porque eso -siguió The New Yorker- tiene poco que ver con la razón por la cual la discriminación y la violencia abundan en una red social. Encontrar el odio en las publicaciones de 3.000 millones de usuarios -la cifra combinada de Facebook, Instagram, WhatsApp y Messenger- es encontrar una aguja en un pajar, según argumentó el vicepresidente de Asuntos Globales y Comunicación de la firma de Zuckerberg, el ex viceprimer ministro británico Nick Clegg. Pero el autor de Antisocial propuso "una metáfora más honesta": en el centro del pajar hay un poderoso imán que atrae esas agujas. Y como el imán son los algoritmos de las plataformas, también lo multiplican, porque así ganan más tracción entre los usuarios. "Elimina tantas agujas como quieras hoy, que mañana reaparecerán más. Así es como el sistema está diseñado para funcionar".

El resto, argumentó el artículo, es sólo una cuestión de imagen. Se estima que en Menlo Park hay unos 500 empleados formales de tiempo completo en el área de relaciones públicas. Los 15.000 moderadores de contenido -que, al contrario, están vinculados por contratos y dispersos en distintas ciudades del mundo, de Dublin a Manila- denuncian las publicaciones discriminatorio o violento, pero la verdadera acción inmediata se ve cuando en la compañía se habla de un incendio de la imagen, o #PRFire. "A menudo el contenido ha sido denunciado repetidamente sin éxito, pero en el contexto de un incendio de la imagen, recibe pronta atención", explicó la revista.

"Es un secreto a voces que las decisiones de corto plazo de Facebook están impulsadas en su mayoría por las relaciones públicas y la potencial atención negativa", dijo Sophie Zhang, ex analista de datos que dejó la compañía en septiembre. "Antes de hacerlo", recordó el artículo, ella publicó un memo en Workplace, la plataforma interna de los empleados de Zuckerberg, donde dijo que había sido testigo de "múltiples intentos flagrantes de gobiernos extranjeros de abusar de nuestra plataforma a gran escala", y que en su opinión no se tomaba medidas contra ellos porque los países "no nos importaban lo suficiente como para detenerlos", ya que no recibían atención de los medios de comunicación estadounidenses.

Al contrario, un #PRFire se debía apagar de inmediato, como cuando Facebook recibió críticas por el bullying que recibía la activista contra el cambio climático Greta Thunberg, quien sufre del síndrome de Asperger: "Los moderadores de contenidos recibieron la instrucción de aplicar una excepción ad-hoc: 'Remover todas las instancias de ataques contra Greta Thunberg que usen los términos o los hashtags 'Gretardada' o 'Retardada'".

 

Qué opinan los moderadores de contenido

 

Amenazas, decapitaciones, pornografía infantil, crímenes de guerra, violaciones y muchas otras iniquidades que circulan en línea nutren la tarea cotidiana de los encargados de detectar y denunciar o eliminar, según las "Normas de implementación" de Facebook, y un segundo documento, las "Preguntas conocidas", que funciona como mandato de interpretación de esas reglas. En mayo, miles de moderadores de contenido presentaron una demanda conjunta contra la compañía por estrés postraumático derivado del empleo, que no llegó a completarse porque la plataforma pagó USD 52 millones para cerrarla.

Luego del escándalo Cambridge Analytica y de las operaciones de hackers vinculados al Kremlin durante la campaña electoral estadounidense en 2016, Zuckerberg anunció que su firma mejoraría las tareas de moderación. The New Yorker habló con un matrimonio, Mildka y Chris Gray, que trabajó entonces en la oficina de Dublin. Los recién contratados recibían capacitación sobre las reglas de contenidos aceptables de la mano de un instructor; sin embargo, "los documentos están llenos de jerga técnica y no se presentan en ningún orden lógico", recordó Chris Gray. Su esposa, nativa de Indonesia, complementó: "En la sala de capacitación todos asienten, sí, sí. Luego sales y le preguntas a un conocido: '¿Tú entendiste? ¿Puedes explicarlo en nuestro idioma?'".

Sin embargo, el problema principal de los moderadores no es la opacidad de los criterios, escribió Marantz, sino la imposibilidad de aplicar "su discreción y su intuición moral", por la cual se los alienta a "ignorar el contexto" en el que se dice algo potencialmente dañino. El sentido teórico es que no se quiere tener 15.000 criterios diferentes sobre si los querubines de Rafael violan o no las limitaciones a la desnudez. Pero esa descontextualización llega a situaciones como la que describió en 2018 un periodista de Channel 4, del Reino Unido, que realizó de manera encubierta esa capacitación.

El instructor mostró a los moderadores nuevos un meme: un ilustración que muestra a una madre ahogando a su hija, junto con la leyenda "Cuando el primer amor de tu niña es un niño negro". Aunque la imagen "implica mucho", en palabras del hombre a cargo de la clase, "no hay un ataque real contra el niño negro". La recomendación era "ignorar esto". Ante el silencio que se creó en la sala, el hombre explicó: "Si empezamos a censurar mucho la gente pierde interés en la plataforma". Entonces preguntó: "¿Estamos todos de acuerdo". Uno de los presentes dijo que no, otros se rieron.

Luego de la emisión del programa en la televisión británica, un vocero de Facebook dijo que el instructor había cometido un error. Pero Chris Gray aseguró a The New Yorker que él mismo marcó muchas veces ese mismo meme, y que siempre le dijeron que lo ignorase. Argumentó que era racista; le respondieron que no emitiera juicios propios sino que aplicara las normas.

Otros moderadores contaron experiencias similares a la revista. Dos de ellos, que pidieron la reserva de sus nombres, detallaron que muchas veces se les indican acciones "en conflicto con el sentido común y la decencia básica". Una de ellos dos contó que analizó un perfil de Instagram llamado KillAllFags cuya foto era una bandera arco iris tachada. "La amenaza implícita es bastante clara, creo, pero no pude hacer nada", siguió: su supervisor insistió en que LGBTQ es un concepto, no alguien en concreto. "Excepto que se refieran a una persona o empleen pronombres, tengo que suponer que hablan de eliminar una idea".

 

Clientes VIP

 

Algo similar sucedió con las publicaciones del partido nacionalista blanco Britain First y de su líder Tommy Robinson, que parecían conocer tanto sobre las reglas de las plataformas como los moderadores, porque fueron reiteradamente denunciados por contenidos que parecían mantenerse al filo de las reglas de Facebook: "La redacción siempre era los suficientemente vaga", recordó Chris Gray. Además, hacia el final del gobierno de Theresa May, Britain First tenía cuatro veces más seguidores que ella, dos millones, lo cual parecía ser importante a la hora de evaluar si se dejaba o se quitaba algo, agregó el texto.

Las expresiones discriminatorias o en el borde de lo ilegal de los nacionalistas británicos llegaron a Workplace, donde el encargado de recibir las críticas de los moderadores escribió reiteradamente lo mismo: "Gracias por señalar esto, lo pasaré a nuestros expertos en el tema de organizaciones de odio". Hasta que en 2018 Darren Osborne fue condenado por atropellar con su camioneta a una multitud cerca de una mezquita de Londres, asesinar a una persona y lesionar a otras nueve, y la sentencia hizo referencia a su "rápida radicalización en internet". Facebook procedió a prohibir a Britain First y Tommy Robinson.

Otro caso de alto perfil causó la renuncia de David Thiel, un experto en ciberseguridad de las oficinas centrales de Facebook: el presidente de Brasil, Jair Bolsonaro, en su discurso semanal en Facebook Live, dijo a comienzos de 2020 que los indígenas en ese país "evolucionan y se convierten, cada vez más, en seres humanos como nosotros". Thiel supuso que semejante expresión de racismo estaba más allá de cualquier exégesis de las "Normas de implementación"; sin embargo, vio que el video seguía publicado. Entonces planteó la cuestión en Workplace: Bolsonaro violaba las reglas contra el discurso deshumanizante.

No pudo creer cuando dos moderadores de contenido le dijeron que no era el caso. Uno de ellos, desde Brasilia, le explicó: "El presidente Bolsonaro es conocido por sus discursos polémicos y políticamente incorrectos. En realidad, quiso decir que la población indígena se ha vuelto más integrada a la sociedad (en lugar de estar aislada en sus propias tribus)". El experto en contenidos había trabajado para un político afín al presidente brasileño, pero eso no fue motivo para que se debiera eximir de opinar. Bolsonaro, además, pagaba publicidad en la plataforma, según Thiel.

Con una presentación de 53 diapositivas (una de las cuales recordaba que durante el primer año de gobierno de Bolsonaro hubo siete asesinatos de líderes indígenas, un récord en dos décadas), el ejecutivo de ciberseguridad insistió. Lo escucharon. El video siguió en línea. Thiel renunció en marzo con una carta de despedida que se hizo pública. El equipo de políticas de contenido le escribió para contarle que habían cambiado su decisión y el discurso de Bolsonaro ya no estaría disponible.

 

¿Facebook no quiere o no puede?

 

A comienzos junio Facebook debió atender sucesivamente a un paro de personal en home office y a una carta abierta de 34 ex empleados de sus orígenes, entre ellos Dave Willner, cuya línea medular decía: "Si cualquier discurso de un político es de interés periodístico y todo discurso de interés periodístico es inviolable, entonces no hay límite que los poderosos del mundo no puedan cruzar en la plataforma más grande del planeta". E instaba: "La actualidad nos muestra que no podemos aceptar pasivamente un papel de facilitadores silenciosos de los algoritmos, no cuando nuestras pantallas están saturadas de discurso de odio".

Y aunque Facebook anunció cambios a sus lineamientos el 19 de agosto, su aplicación sigue siendo dudosa, según Marantz. Por ejemplo, ahora se restringen las actividades de "organizaciones y movimientos que han demostrado riesgos de importancia para la seguridad pública", entre ellos "las organizaciones estilo miliciano en los Estados Unidos". Pero luego de los disturbios en Kenosha, Wisconsin, porque un policía disparó siete veces contra Jacob Blake, un afroamericano, delante de sus hijos, la Guardia de Kenosha, un grupo estilo milicia, publicó en Facebook un "llamado a las armas", en cuyos comentarios hubo incitación explícita a la violencia y amenazas. Los moderadores de contenidos determinaron que no violaba los estándares de Facebook. El 25 de agosto, un joven de 17 años disparó contra tres manifestantes con un rifle semi automático y mató a dos.

"Es probable que las restricciones también alimenten la idea de que los medios de comunicación social discriminan a los conservadores", planteó, por último, The New Yorker. En efecto, además de las acusaciones en ese sentido que ha repetido el presidente Donald Trump en su cuenta de Twitter, senadores republicanos como Ted Cruz y Lindsey Graham han solicitado que se cite a declarar en Capitol Hill a los ejecutivos de Facebook y Twitter sobre lo que han descripto como "censura en las redes sociales".

De hecho, el análisis de Tardáguila sobre la imposibilidad de compartir el enlace al artículo del Post que perjudicaba a Biden, originalmente publicado en Poynter, una organización de periodismo e investigación sin fines de lucro vinculada al Tampa Bay Times e International Fact-Checking Network, fue recogido por Fox News: "El Instituto Poynter publicó una columna acribillando a Twitter y Facebook como 'árbitros de la verdad' luego de que los gigantes tecnológicos tomaran las decisiones 'polémicas y cuestionables' de censurar un artículo del New York Post que afectaba al nominado demócrata a la presidencia, Joe Biden".

Según la cadena, "hace tiempo que los críticos afirman que las redes sociales suprimen los informes que critican a los demócratas, y la censura de la bomba del New York Post esta semana, que intentaba mostrar correos electrónicos de Hunter Biden que vinculan a su padre con sus negocios en Ucrania, pone la cuestión en primer plano". Fox citó al también conservador Media Research Center, que aseguró que "hasta ahora, los empleados de Facebook y Twitter dieron más del 90% de sus contribuciones políticas a los demócratas para el ciclo 2020", lo cual pondría en cuestión la ecuanimidad de estas personas en sus trabajos, valoró.

Twitter impidió las publicaciones con el enlace al artículo sobre la computadora de Hunter Biden y los e-mails vinculados a la empresa ucraniana Burisma (luego su CEO, Jack Dorsey, se disculpó), mientras que Facebook limitó su difusión. Sohrab Ahmari, editor del Post, argumentó que el artículo del diario fue "muy transparente sobre lo que sabíamos y lo que no sabíamos, y lo informamos meticulosamente". También acusó a las plataformas de haber impedido que los lectores pudieran "juzgar por sí mismos" y de haber demostrado "cuánto poder irresponsable ejercen estos monopolios tecnológicos", al punto que "nuestra libertad de expresión hoy vive o muere en estas plataformas" que se rigen según "los caprichos de los multimillonarios de Silicon Valley".



© 2019 Infobae

UyPress - Agencia Uruguaya de Noticias



MVDCMS  Volver arriba    |    Contacto: uypress@uypress.net