A primeira pregunta é si as vítimas ou os delincuentes son estranxeiros, nun cuestionario que utiliza a Ertzaintza para medir o risco da violencia machista. A xornalista Naiara Bellio publicou as conclusións da investigación do algoritmo da Ertzaintza de Algortihm Watch para medir o risco da violencia machista. A ferramenta EPV-R, en castelán, baséase nun cuestionario psicolóxico "Escala de predición do risco de violencia grave contra a parella".
Aínda que é o primeiro na lista de preguntas sobre a orixe das vítimas e dos delincuentes, o cuestionario non sempre se dirixe ás vítimas por esta orde, segundo explica a AlgorithmWatch o inspector xeral da Ertzaintza, Oskar Fernández. Engade que esta pregunta só vale un punto, mentres outros valen até tres puntos. Con todo, segundo o cuestionario, "estranxeiros" non son máis que occidentais. Por exemplo, se alguén é belga ou alemán, non se ten en conta. Segundo explicou Fernández, só se aplica en "casos nos que a cultura non é europea". Con todo, no cuestionario non se esixe concreción de países.
Xunto coa de orixe, o cuestionario está composto por outras dezanove preguntas. Entre outras cuestións, preguntan á vítima se o agresor é celoso, se o delincuente é agresivo con outra persoa, se lle ameaza coa morte ou si foron armas. Cada pregunta ten unha puntuación que pode alcanzar un máximo de 48 puntos. Non teñen que facer todas as preguntas, pero polo menos doce. Miden o nivel de risco en función da puntuación obtida. Por encima de 24 puntos o risco é "grave", por encima de 18 "alto", por encima de 10 "medio" e por baixo "baixo".
Este algoritmo é paralelo á investigación xudicial. É dicir, antes de que un xuíz decida, a Ertzaintza pon en marcha o seu protocolo para protexer ás vítimas, no que teñen en conta o algoritmo EPV-R. Posteriormente, o informe da Policía ao xuíz inclúe como proba os resultados do interrogatorio. Isto non ocorre noutros sistemas similares.
O rendemento do algoritmo en cuestión
En 2022 estudouse o rendemento do algoritmo na Universidade Cornel de Estados Unidos. Segundo o informe que recolleu os resultados, na maioría dos casos (53%) que se consideraron de alto risco por outras vías, o algoritmo concluíu que o risco era "baixo". Segundo o estudo, o número de falsos negativos é superior ao de verdadeiros positivos. Isto significa que este algoritmo supón unha gran probabilidade de considerar casos graves como non graves.
Non é o único algoritmo xenófobo
Tamén utilizan algoritmos xenófobos noutros lugares. Por exemplo, en Cataluña utilizan a ferramenta RisCanvi para predicir si un preso vai cometer un delito despois de saír de prisión. Este algoritmo tamén ten en conta a orixe dos presos.