Di que o debate sobre o uso das tecnoloxías está construído sobre as emocións. Da fascinación ou do medo. Temos que repartir ciencia e ciencia-ficción?
A xente ten ideas sobre o que fai a tecnoloxía, e iso ten moi pouco que ver co que realmente fai a tecnoloxía. E enténdese que os medios de comunicación están continuamente dando unha imaxe distorsionada e disfuncional da tecnoloxía, atendendo ás oficinas de prensa. Estamos nunha época tecnoloxicamente aburrida, pero nunca o saberías si les a prensa que anuncia as revolucións 4.0 ou 5.0.
A xente pensa que o traballo llo roubará mañá un robot. E o certo é que no día a día, quen traballamos con algoritmos, tecnoloxías avanzadas ou sistemas de procesamiento da linguaxe natural, vemos tecnoloxías moi básicas. A ciencia que vemos hoxe en día non ten nada que ver coa ciencia ficción que falan os medios de comunicación. A xente ten medo ás tecnoloxías que non existen, e iso evita un debate público digno que nos permita elixir que tipo de tecnoloxía queremos.
E cales son as consecuencias da falta de debate público?
O debate público informado é a base de todas as democracias. Temos dereito a decidir sobre as cousas que afectan ás nosas vidas e os algoritmos inflúen nas nosas vidas. O risco das mulleres maltratadas no Estado español está determinado por un algoritmo que determina si temos dereito a prestacións estatais, a unha hipoteca ou non, a acceder a unha vivenda pública ou non. Estas tecnoloxías rodéannos e están a tomar decisións importantes.
Deberiamos ter dereito a opinar, pero para opinar temos que saber que é o que está a pasar. E distinguir a ciencia da ciencia ficción. Saber que datos están a tomar, para que, que posibilidades temos de influír sobre eles, se hai outras alternativas. Todo isto non se pon encima da mesa porque a nosa forma de relacionarnos coa tecnoloxía facémola desde ese lado emocional: ou nos fascina e inventamos contos, ou nos dan un medo terrible e negámonos a entrar no primitivismo.
Cando falamos de tecnoloxías, normalmente pensamos en máquinas e robots. Pero vostede fala de algoritmos e de fórmulas matemáticas. Como podemos facer a cidadanía unha auditoría sobre temas tan complexos?
Que haxa un debate público non significa que todos teñamos que ser expertos, que todos teñamos que estudar matemáticas. A cuestión dos alimentos e os medicamentos é a mesma. Cando vou de compras non teño ningunha dúbida de que todas as cousas que están nese supermercado pasaron por controis estritos de seguridade e, por tanto, son comestibles. Cando vou á farmacia, non son químico, non se que leva a aspirina ou o ibuprofeno, e aínda que o lea non o entenderei, pero confío nas medidas tomadas polo farmacéutico ou o médico e en que non vai ser prexudicial para a miña saúde.
Estes Procesos de Control danse en todos os ámbitos da nosa vida excepto en temas tecnolóxicos. Non sabemos si cumpren a lei ou si poden causar máis dor. E non me parece xusto deixar na cidadanía a responsabilidade de entender estes procesos. Ninguén me vai a pedir que me compre unha aspirina para doctorarme en química. Por iso creo que non é xusto pedir á cidadanía que saiba informática para utilizar unha aplicación. O que se está fallando son os procesos de control destes mecanismos, que son fáciles de auditar/supervisar, a investigación destes procesos matemáticos que están detrás dos algoritmos é relativamente sinxela, pódese facer. Falta a transparencia destes procesos para que todo o mundo teña dereito a entrar neles, a interrogar a esas tecnoloxías e a achegar para que esta tecnoloxía sexa mellor.
Dis que esta opacidade procrea un Gran Irmán, pero mesquiño, malvado e insignificante.
O Gran Irmán, ademais de mesquiño e malo, é un banal. Porque non hai un poder ditatorial que queira ver a todo o pobo. O obxectivo de Silicon Valley é a venda, e todo o que inventa para poder vender. No caso de que sexa necesaria a adicción á venda, será o psicólogo quen contrate a realización dun estudo sobre a influencia dos colorines que se utilicen na aplicación. Creamos unha estrutura panóptica pero o seu obxectivo non é o control social, a manipulación da cidadanía, temos un Gran Irmán cuxo único obxectivo é vender estupideces. Por iso é banal: sacrificamos os nosos dereitos e garantías importantes para que nos vendan mellor as cousas.
Pero tamén é perigoso.
Por suposto, esta infraestrutura pode ter un gran impacto social nas malas mans. Estamos a falar da manipulación potencial das eleccións –aínda que non está demostrado, é certo que ás veces o atribuímos todo á tecnoloxía–. Pero cun sistema como este, aumentan as posibilidades de actuar con fins ilegais ou ilegais. Temos a responsabilidade de coidar as infraestruturas que creamos e de crear novas infraestruturas que non sexan perigosas.
A miúdo os gobernos de esquerdas crean estruturas panópticas “para espiar coas nosas necesidades de mellora”. Temos que buscar que as infraestruturas que creamos non permitan o abuso, porque agora goberna un, pero mañá quen sabe? Por tanto, construamos infraestruturas responsables, que non nos arrepintan.
Edward Snowden di que “porque non tes nada que esconder é non defender o dereito á privacidade, porque non tes nada que dicir é como non defender a liberdade de expresión”. O dereito á privacidade é a base de todos os demais dereitos?
Moitos pensadores relacionan a privacidade coa liberdade. Eu non prevexo desenvolver a miña autonomía persoal sen ser unha persoa diferente en diferentes ámbitos. Non somos as mesmas persoas cando estamos en diferentes contextos de traballo ou en familia. Esta posibilidade de xestionar e negociar a nosa identidade é unha parte fundamental que nos fai humanos e fainos libres. A dixitalización consolida a nosa identidade. Para o algoritmo es esta persoa, con este nivel de compra, con estes amigos... A nosa identidade fixa está en contra da liberdade que nos fai humanos. Ao final, a privacidade articula o resto dos dereitos en relación co dereito a ser libre e a sentirse libre.
Di que non hai aspectos con programa de control de tecnoloxías. Neste caso, por tanto, as tecnoloxías quedan sometidas aos poderosos. Que medidas poderíanse propor?
Pódense facer moitas cousas desde hoxe. Por exemplo, os rexistros nacionais de algoritmos. Declarar o seu uso cada vez que se utilicen algoritmos con impacto social para que as entidades públicas poidan coñecelos. Ferramentas de transparencia moi básicas, como as que utilizan as institucións noutros ámbitos. Medidas de protección cidadá e sobre todo de colectivos vulnerables; á fin e ao cabo, os algoritmos son máquinas para converter a normalidade nun privilexio. A normalidade en Internet sempre é un home branco de mediana idade. O resto están excluídos por estes sistemas. Como protexemos a estes colectivos?
Hai moitas leis e procesos para protexer aos colectivos non hexemónicos, pero unha vez máis non os levamos ás tecnoloxías. Eses valores que protexemos offline, tamén podemos protexelos online. Resulta sorprendente que ningún partido, nin de dereitas nin de esquerda, aborde o tema desde as políticas públicas.
O sucedido coa aplicación COVID-Radar foi curioso, xa que Apple e Google puxéronse de acordo para desenvolver un sistema descentralizado.
A clave do modelo descentralizado, distribuído e fisurado da aplicación para explorar as interaccións entre as persoas non era só a dificultade da criptografía avanzada, que permite explorar as interaccións anónimas, senón o acceso continuo a Bluetooth. As aplicacións de calquera teléfono funcionan pola superficie, non se pode acceder ao sistema operativo.O
modelo descentralizado suízo logrou convencer a Apple de que as aplicacións estatais que cumprían co modelo descentralizado permitisen acceder ao sistema operativo, é dicir, que Bluetooth funcionase sen acendelo e sen baixar o nivel de batería.
Apple leva anos querendo asociar a súa marca á defensa da privacidade, e gañou varias batallas nos tribunais de xustiza. É certo que a información que pode obter a través da aplicación de procura de contactos obtena Apple por outros medios, polo que non renunciou a nada en particular. Pero o máis interesante é que Google e Apple tamén se uniron para permitir o acceso ao sistema operativo ás aplicacións nacionais do Ministerio de Sanidade. Por iso non funciona con outros sistemas operativos.
O máis interesante deste debate é que o único Estado que reivindica a necesidade de seguir nun modelo centralizado é o de Francia. Francia, en nome da súa soberanía nacional e tecnolóxica, queixouse da imposición de Apple. Un pobo coa mellor lexislación en materia de protección de datos reclamaba a un xigante tecnolóxico o dereito a vixiar aos seus súbditos. Por iso é interesante un debate integral sobre as tecnoloxías, porque non só hai actores bos e malos. Neste caso, Apple situouse a favor dos dereitos dos cidadáns e Francia quería que se convertese nunha ferramenta para vulnerar dereitos fundamentais. Isto non quere dicir que sempre protexan o mesmo, pero hai xanelas pequenas en sectores públicos e privados, para orientar mellores prácticas.
China é un dos países que utiliza masivamente estas tecnoloxías para evitar esa visión consumista da que vostede falaba. En concreto, o control social sería favorable a unha visión colectivista.
Eu non son experto en China, pero hai puntos de vista que son moi interesantes. En primeiro lugar, o investimento público en tecnoloxías en China é enorme. Levan décadas multiplicando os investimentos públicos en comparación co resto do mundo. Está a notarse e notarase aínda máis. Haberá cambio en quen produce a tecnoloxía e quen a consome. China xa se afastou de ser unha cidade dedicada exclusivamente á produción de microchip barato deseñado en Silicon Valley. Doutra banda, as trabas das empresas chinesas para traballar en Estados Unidos por parte de Trump non fixeron máis que aumentar o seu resiliencia. O primeiro sistema estaba integrado, as empresas chinesas tiñan necesidades de software ou hardware externas. Pero, despois de que Trump pechase as portas de Estados Unidos, creouse unha oferta e unha demanda independentes. Por tanto, agora Chinesa é máis forte que antes das sancións que se lle puxeron.
E a terceira cuestión. Desde o oeste gústanos pensar que Chinesa é un estado panóptico, co control social total da poboación. Pero moitos dos abusos que alí denunciamos fanse desde hai tempo, por exemplo, en Estados Unidos, e eles denúncianos! En China implantouse un sistema de puntos dixitais para saber se se trata dun cidadán bo ou non. En Estados Unidos teñen o sistema Credit Scoring, que ademais é privado, que analiza os teus créditos do pasado, por exemplo, se cobraches e pagaches ben. E sen un bo Credit Scoring non podes acceder a moitos servizos. Son sistemas moi igualitarios. Algúns puntos que vostede non pode controlar están relacionados co seu pasado e condicionarán o seu futuro. Denunciar iso desde Estados Unidos é sorprendente, xa que a pesar de cambiar de nome o proceso é moi parecido.
Dis que as estratexias tecnolóxicas que se fixeron aquí pretenden copiar Silicon Valley no modelo start up buscando pelotazo, sen pensar no desenvolvemento do territorio. Na pandemia viuse aínda máis.
Todos os momentos de desenvolvemento da historia de Occidente producíronse cando se investiu diñeiro público. Europa e Estados Unidos están a reducir os seus investimentos públicos desde os anos 60 e China está a polo todo no terreo tecnolóxico desde os anos 60. Iso notarase: o enorme esforzo dos mozos chineses por formarse no STEM, enviándoos ás mellores universidades, etc. Europa e Estados Unidos, pola contra, están a aumentar as taxas universitarias, dificultando o acceso xeral e equitativo á educación. As políticas públicas son totalmente diferentes, e a historia demostrounos que a capacidade de avance é a dos investimentos públicos, as empresas privadas nunca chegarán a eses niveis.
En espazos como o X, a día de hoxe, teremos que recoñecer que é imposible dar un debate público e unha loita cultural. Neste sentido, un erro é que proxectos políticos que pretenden liderar un cambio de esquerda deixen plataformas como X para dar o salto a redes sociais... [+]