Todas as casas marcadas viñan bombardear ao cinco da mañá o exército aéreo. (...) Eliminamos así a miles de persoas. Non miramos un a un, puxémolo todo de forma automática; nada máis chegar a casa a [persoa marcada] convertíase en destino: bombardeabamos ela e a súa casa". Así están a facer desaparecer aos palestinos de Gaza os do exército israelí Tsahal. Sen un seguimento próximo do que se pretende, sen a intención de protexer aos civís próximos e en todo caso o máis grave, seguindo cos ollos os mangos dunha máquina. Cos ollos pechos, pero os ollos seguindo o precepto intestinal: "Ante a magnitude da obrigación, o protocolo di: si non tes a seguridade de que a máquina funciona correctamente, xa sabes que estatisticamente todo vai ben. Así que adiante, actúa".
Esta declaración corresponde a un soldado israelí. Grazas a este testemuño e á investigación dos medios independentes +972 e Local Call que se encargaron de facer públicos, soubemos que Israel confiou na intelixencia artificial a determinación do lugar e momento dos bombardeos en Gaza. A reportaxe inclúe ao seu titular, ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza (Máquina de intelixencia artificial que dirixe a campaña de bombardeo de Israel en Gaza). Este sistema tecnolóxico é nomeado Lavender, tras roubar o nome da fermosa masa olorosa da paisaxe botánica e porlle o nome ao instrumento de homicidio masivo para a guerra.
Os datos destes 37.000 palestinos introdúcense no sistema Lavender e deixan o seguimento en mans da intelixencia artificial. As testemuñas recoñecen que seguiron a pauta de bombardeo como “decisións humanas”
Tsahal desmente documentalmente o que trae a investigación, quere deixar claro que só utilizan a Lavender para o seguimento dos seus rivais e engade que sempre hai un soldado que está nunha minuciosa análise dos datos. Pero o documento ten pouco peso fronte aos seis testemuños que supoñen declaracións opostas. Seis son os antigos traballadores do servizo de información de Israel e os que participaron na destrución de Gaza desde o 7 de outubro. "Pasoume máis dunha vez atacar unha casa, aínda que a persoa [que queriamos] non estea presente. Resultado? Mataches a toda unha familia sen razón". Entre outras cousas, Lavender informou e acudiu á cita porque a persoa saíu de casa. Este tipo de exemplos non son raros na reportaxe. Unha vez comprobado que estamos involucrados nesa crueldade distópica de pór en mans dos algoritmos a decisión de quitar
as vidas das persoas, imos mirar máis de cerca o funcionamento de Lavender:
Baseándose na fichaxe masiva dos cidadáns de Gaza, Israel desenvolveu un sistema de puntuación entre 0 e 100 segundo uns críticos, que foron clasificando aos palestinos de Gaza. Da puntuación da poboación de máis de dous millóns de habitantes extraeron 37.000 palestinos, gratuítos, situados preto do 100 pola intelixencia artificial e, por tanto, clasificados como membros das organizacións Hamas e Jihad Islamikoa. Os datos dos 37.000 introdúcense no sistema Lavender e deixan o seguimento en mans da intelixencia artificial. As testemuñas recoñecen que seguiron as instrucións para bombardear "coma se fosen decisións humanas".
Din que desde o 7 de outubro modificáronse os criterios de Tsahal. De feito, até entón dirixíanse a altos cargos dos grupos Hamas ou Jihad Islámico, pero coa posta en marcha da operación Iron Swords [Espada de Hierro], todos os activistas destes organismos convertéronse en rivais a eliminar. Isto implicaba unha segunda modificación: "No horizonte de decenas de axentes, o persoal de información podía facer un seguimento con tempo para castigar e localizar a cada un. Pero coa apertura dunha lista de decenas de miles de axentes, o exército asumiu que a continuidade debía basearse en software automatizado e intelixencia artificial". Ademais, os dirixentes comunicáronlles que non tiñan necesidade de mirar con detalle a información sobre os destinos. Unha fonte di que pasaban "unha media de vinte segundos" mirando os datos da persoa. Até onde vai a construción de xénero, se non é a muller que ía morrer para mirar xustamente ese breve espazo, porque nesas institucións non hai mulleres activistas...
Nas dúas semanas seguintes ao 7 de outubro probouse a máquina Lavender, observando de cerca a súa eficacia e resultados, e concluíndo que tiña unha taxa de erro do 10%, autorizouse aos soldados a utilizala de forma xeneralizada. É dicir, dos 37.000 aos que se dirixía Lavender 3.700 inocentes perderon a vida, simplemente porque se considerou aceptable un erro do 10%.
Á vista de que cada inimigo a morrer ten unha casa, Lavender prefire memorizar o lugar de residencia da persoa e mandar un bombardeo cando os puntos da persoa e a residencia coinciden. Que implica isto? Que matan a toda a súa familia, ademais da a que se dirixen. Cantas veces non escoitamos "O xornalista X e toda a súa familia foi asasinado polo exército israelí" ou "Tsahal mata ao líder de X Dezaseis e a toda a súa familia". Un reflexo máis desa inhumanidad é o nome que os usuarios puxeron a este programa: Onde está o pai?
Para o asasinato dun membro de dezaseis pouca responsabilidade teñen permiso para matar a un quince civís da zona, pero para os altos cargos teñen
autorizada unha barreira “centenaria”
O rango aceptable dos danos colaterais a un asasinato cambiou radicalmente desde o 7 de outubro. No sacrificio de cada un do dezaseis tiñan permiso para matar outro quince civís durante as primeiras semanas do mes de outubro, e ese número íase ttipando ou ampliando: "Na práctica, as persoas [das casas bombardeadas] non contabamos porque non era fácil. Ao cabo dunha semana, o rango dos danos colaterais reduciuse a cinco [de quince], o que dificultou os ataques, xa que se toda a familia está en casa non podiamos bombardear. Pronto volveron subir o rango dos danos laterais".
O permiso para morrer un quince civís da zona para os membros pouco responsables de Dezaseis, pero para os altos cargos ten unha barreira "centenaria". Unha testemuña lembra a desmasia do 2 de decembro: "Coa atentado bomba contra o batallón Shuja'iya sabiamos que matariamos a máis de cen civís. Para min, psicoloxicamente, iso non era o habitual. Por encima dos tecidos civís, o que supuña superar a liña vermella". O mesmo, para o asasinato de Ayman Nofal, xefe de Dezaseis, tiñan permiso para matar a 300 civís. A reportaxe recolle o testemuño dun socorrista que estaba ese mesmo día: "Si, foi asasinado, e non sabían quen era o [Ayman Nofal]. Asasinaron a familias enteiras, mataron a nenos". O rango tan alto dos danos colaterais autorizados non se viu nunca, nin por parte de Israel, nin por parte de Siria, Afganistán ou EEUU en Iraq. No caso de Bin Laden era de 30.
A economía das armas ten máis importancia que o número de civís mortos en ataque. A pesar das maiores desmasías, os mísiles menos exactos que son máis baratos utilízanse para atacar aos non líderes de Dezaseis, que son a maioría dos casos a partir do 7 de outubro: "Non queres usar lámpadas de alto valor para persoas sen importancia. Isto supón un custo enorme para o pobo e estamos nunha escaseza de [bomba]", afirma unha testemuña.
A medición dos danos colaterais tamén foi posta a disposición da intelixencia artificial: "Son cálculos totalmente automáticos e estadísticos". En concreto, tomando como base o número de habitantes fichados nun edificio antes do 7 de outubro, os traslados na zona desde o 7 de outubro diríxense proporcionalmente ao edificio. Por exemplo, se a metade da poboación escapouse dun barrio, nunha vivenda de dez habitantes contabilizaranse cinco. Quen? Algoritmos: "Este modelo non estaba conectado á realidade. Non existe relación entre quen viven agora e antes da guerra. Ocorreunos que, sen saber o bombardeo dunha casa, había varias familias no seu interior, gardadas xuntas".
Á vista desta crueldade, non nos extraeremos de saber que tampouco miran os resultados: "Non sabes cantos morriches e quen morriches. (...) No caso dos xefes superiores faise a seguinte continuación. Para os demais dános igual. Recibimos un informe do exército aéreo sobre a destrución do edificio e xa está. Non sabes nada de danos colaterais. Diríxese ao seguinte destino. O importante é conseguir unha meta o máis inmediata posible". E así pasa o xenocidio de Gaza. O Ministerio de Sanidade de Gaza contabilizou 34.262 mortes ao redactar esta reportaxe. 34.262: un dato máis útil para os algoritmos.
Palestinarekin Elkartasunak "sionistekin harreman oro etetera" deitu du. Kanpaina bat jarri dute abian Euskal Herriak Israelgo estatu terroristaren bizirautea bermatzen duten harreman militar, diplomatiko eta kulturalak seinalatu eta hauen etetea exijitzeko. Pasa den... [+]
A UPV/EHU Palestina naceu co obxectivo de romper con todas as empresas e institucións israelís que están a levar a cabo un xenocidio en Palestina e traballan con ela. A impunidade de Israel provén das súas relacións políticas, militares, económicas, científicas e... [+]