Análisis

¿Qué es la 'violencia algorítmica' usada por Israel contra Palestina?

Durante los ataques israelíes a Gaza en mayo de este año, las plataformas de redes sociales bloquearon continuamente hashtags, censuraron, eliminaron y restringieron los contenidos y las cuentas de los activistas palestinos.

Sabri Ege  | 30.06.2021 - Actualızacıón : 30.06.2021
¿Qué es la 'violencia algorítmica' usada por Israel contra Palestina? Palestinos regresan a sus casas destruidas después del acuerdo de alto el fuego entre Israel y Hamas, alcanzado con la mediación de Egipto, en Beit Hanoun, Gaza, el 21 de mayo. 2021. Archivo (Ashraf Amra - Agencia Anadolu)

Estambul

Por: Sabri Ege

En su ensayo fundamental, '¿Tienen política los artefactos?' (1980), Langdon Winner analiza los puentes sobre las avenidas en Long Island, Nueva York. Winner señala que estos pasos elevados fueron diseñados conscientemente para ser muy bajos, para mantener alejados a los autobuses públicos de 12 pies de altura que usaban los pobres y los negros en ese entonces.

Por lo tanto, la clase blanca alta y media podría disfrutar de las carreteras, parques y puentes sin tener que mezclarse con las clases de bajos ingresos y las minorías raciales. Existen varios ejemplos similares en la historia.

Desafortunadamente, estos patrones revelan que la tecnología puede politizarse y utilizarse con fines ideológicos.

Durante los ataques israelíes a Gaza, y en paralelo a la opresión de los palestinos en el terreno, las plataformas de redes sociales bloquearon continuamente hashtags, censuraron, eliminaron [1] y restringieron los contenidos y las cuentas de diversos activistas palestinos.

Ver también: Autoridad Palestina pide a la comunidad internacional que detenga la demolición de casas por parte de Israel

Casi todas las plataformas de redes sociales se involucraron en esta censura, sofocando las voces de palestinos y activistas. 7amleh, el Centro Árabe para el Avance de las Redes Sociales, publicó un informe detallado [2] de la censura al contenido palestino.

Deconstruyendo el mito de la "falla" algorítmica

Por lo general, se han presentado tres razones principales para justificar este tipo de acciones por parte de las plataformas de redes sociales.

El primero se basa en los mecanismos de denuncia de los usuarios, a saber, que las cuentas pro israelíes informan de contenido pro palestino. Sin embargo, si ese es el caso, las plataformas deberían responder por qué este mecanismo funciona mejor para los israelíes y por qué procesan solicitudes pro israelíes sin pruebas válidas.

El segundo argumento es que las plataformas bloquean a los activistas y eliminan sus cuentas por recomendación del Gobierno israelí. Ya en 2018, [3] Facebook y YouTube cumplieron con las solicitudes de Israel en el 95% y el 80% de los casos, respectivamente.

No obstante, en este caso, el Gobierno israelí es el autor de la violencia. Entonces, ¿por qué estas plataformas siguen cumpliendo incondicionalmente con sus demandas?

Sin embargo, las propias plataformas de redes sociales presentan una tercera razón fundamental detrás de su postura: "Fallas técnicos" en sus algoritmos; otra denominación más suave para el sesgo algorítmico.

Absolver a los perpetradores y echar la culpa a los cálculos matemáticos es un juego peligroso. Permite que las plataformas de redes sociales creen la impresión de que la falla existente surge de ciertos sistemas automatizados llamados "neutrales", normalizando así la opresión al transferir la responsabilidad a una fuente no humana, natural y apolítica. Por lo tanto, es vital detallar algunos hechos concretos sobre la IA (inteligencia artificial).

Ver también: Irlanda y Palestina, una historia de dos luchas

Dos argumentos clave desacreditan el mito de los fallos algorítmicos, demostrando que los algoritmos son de hecho intervenciones políticas y construcciones sociales e ideológicas tanto como cálculos matemáticos.

Para empezar, la mayoría de los problemas relacionados con los algoritmos tienen que ver con los datos. Si bien la mayoría de los datos provienen de varios continentes, [4] los sistemas automatizados favorecerían "instintivamente" los contenidos provenientes de Europa occidental y los Estados Unidos, porque los conjuntos de datos de entrenamiento están centrados en Occidente.

Estas prácticas se asemejan a las prácticas coloniales en las que los poderes coloniales establecieron, como dijo Edward Said, “una visión política de la realidad cuya estructura promovía la diferencia entre lo familiar (Europa, Occidente, 'nosotros') y lo extraño (Asia Oriente Medio, 'ellos')."

Por eso es importante considerar la discusión de Nick Couldry y Ulises A. Mejias, [5] quienes describen este orden social emergente como colonialismo de datos.

En segundo lugar, las plataformas de redes sociales saben muy bien cómo manejar las fallas de forma eficaz. Sarah Hooker, investigadora de Google AI, explica en un artículo [6] que el “sesgo algorítmico” es un problema de diseño de modelos además de los conjuntos de datos sesgados.

Sin embargo, las preguntas que deben hacerse son; ¿Cómo se diseñan, clasifican y ordenan esos modelos? ¿Quién los creó y supervisó? ¿Cuál es el final del juego aquí?

Los modelos diseñados para algoritmos tienen valor agregado y no pueden disociarse de las opiniones integradas de las personas detrás de ellos (diseñadores, investigadores de usuarios, codificadores, científicos de datos, estrategas de contenido, etc.).

Ver también: ¿Revivirá el nuevo Gobierno israelí las negociaciones con los palestinos?

Inevitablemente, los sistemas de aprendizaje automático llevan a cabo la cultura organizacional de las empresas, así como los valores, supuestos y consideraciones éticas de sus diseñadores.

Si el ser humano detrás del diseño del modelo es racista, sexista o islamófobo, etiquetará las acciones de acuerdo con su cosmovisión. Por ejemplo, Safiya Noble, en su brillante trabajo, [7] muestra cómo los mejores resultados de Google llevaron a sitios pornográficos cuando buscó en Google "chicas negras". Este ejemplo recuerda cómo el algoritmo de YouTube cambió la palabra "palestinos" por "terroristas". [8]

En este contexto, es vital recordar el libro 'Armas de destrucción matemática' de Cathy O'Neil, en el que argumenta la imposibilidad de algoritmos moralmente neutrales, naturales y apolíticos.

En consecuencia, el discurso de los “fallos algorítmicos”, que las plataformas de redes sociales afirman como justificación en el caso de Palestina, no puede separarse de la cosmovisión corrupta que comparten estas plataformas.

Hacia una nueva forma de violencia: violencia algorítmica

En consecuencia, en lugar de utilizar el término "fallas algorítmicas", es más adecuado utilizar el concepto "violencia algorítmica", especialmente en el caso de Palestina. Al llamar a las cosas por su nombre, las plataformas deben enfrentar las consecuencias de sus políticas en lugar de esconderse detrás de modelos matemáticos diseñados de manera desigual.

Algunas preguntas siguen sin respuesta: ¿Por qué estas supuestas "fallas algorítmicas" les ocurren sólo a los palestinos? ¿Por qué siempre los grupos vulnerables sufren estas "fallas" discriminatorias?

Al igual que los puentes construidos para mantener alejados a los pobres y las minorías raciales en Nueva York en la década de 1950, los algoritmos funcionan de la misma manera. Las desigualdades en tecnología continúan sin mejorar porque la cultura del apartheid, el racismo y el colonialismo son las premisas de estas tecnologías.

Además, aunque la violencia algorítmica ha sido ampliamente denunciada durante la última década, revelada en muchos casos, como en los relacionados con cuestiones de género, raza, etnia, etc., y más recientemente durante las protestas de BLM (Black Lives Matter), el problema nunca ha sido tan evidente y sorprendente a esta escala.

La razón de esto es que, por primera vez, las plataformas de redes sociales suprimieron y silenciaron "colectivamente" las voces de un grupo oprimido, los palestinos, durante un momento trascendental. En consecuencia, tales incidentes no son excepciones, sino más bien la regla. Para decirlo de otra manera, la excepción se ha convertido en la regla.

La censura hacia los palestinos por parte de las plataformas antes mencionadas es tan aterradora como los bombardeos israelíes. Si bien Israel reubica a personas por la fuerza, Twitter es cómplice de etiquetar el contenido palestino como un incidente terrorista y manipular su terrible experiencia.

Mientras que las bombas israelíes matan a niños, Instagram es cómplice del uso de técnicas de censura que impiden que las personas condenen los ataques en las redes sociales.

Mientras los residentes y activistas son detenidos y atacados por las fuerzas israelíes, Facebook es cómplice de silenciar las voces de los palestinos y silenciarlas. La razón de esto es que la violencia física y simbólica van de la mano, y un nuevo tipo de violencia aterradora resulta de la mezcla de ambas.

*El escritor es investigador adjunto en la Corporación de Radio y Televisión de Turquía (TRT). Recibió su Maestría en Medios y Comunicaciones de la London School of Economics (LSE).

Las opiniones expresadas en este artículo pertenecen al autor y no reflejan necesariamente la política editorial de la Agencia Anadolu.

**Juan Felipe Vélez Rojas contribuyó con la redacción de esta nota.

[1] https://www.trtworld.com/magazine/workplace-and-algorithm-bias-kill-palestine-content-on-facebook-and-twitter-46842

[2] https://7amleh.org/2021/05/21/7amleh-issues-report-documenting-the-attacks-on-palestinian-digital-rights

[3] https://www.haaretz.com/israel-news/business/facebook-removes-inciting-content-at-israel-s-request-minister-says-1.5432959

[4] https://datareportal.com/reports/digital-2021-global-overview-report

[5] https://www.sup.org/books/title/?id=28816

[6] https://www.sciencedirect.com/science/article/pii/S2666389921000611

[7] https://nyupress.org/9781479837243/algorithms-of-oppression/

[8] https://www.youtube.com/watch?v=tiTAIvI3zMU


El sitio web de la Agencia Anadolu contiene sólo una parte de las historias de noticias ofrecidas a los suscriptores en el Sistema de Difusión de AA News (HAS), y en forma resumida.