argia.eus
INPRIMATU
Adimen artifiziala
Algoritmoek ezkutatzen dutena bistaratzen
  • Algoritmo hitza ezagun samarra bada ere, oro har gizarteak ez daki zer diren, ezta zertarako erabiltzen diren ere. Adimen artifizialaren esparruan duten garrantzia abiapuntutzat hartuta, horien inguruko azalpenak eman ditu Lore Martinez Axpe EH Bilduko digitalizazio idazkari eta legebiltzarkideak Iametza enpresak sortutako Hodeia ez da existitzen podcastean. Eusko Jaurlaritzak erabiltzen dituen algoritmoen erregistro publikoa sortzea adostu dute Eusko Legebiltzarrean, eta egitasmo horren inguruan aritu dira irratsaioan, baita adimen artifizialaren aukera eta arriskuez ere, besteak beste.

Irati Irazusta Jauregi 2023ko uztailaren 26a
Argazkia: Eneritz Arzallus / ARGIA CC BY-SA
Argazkia: Eneritz Arzallus / ARGIA CC BY-SA

EAJ, EH Bildu, PSE-EE eta Elkarrekin Podemosek adostutako testuan eskaera egiten zaio Eusko Jaurlaritzari, Datuaren Adierazpen Etiko bat onartzeko, administrazio publikoan datuen erabilera gidatuko duen printzipio etiko eta balioen berme bezala. Erregistro publiko gardena sortuko da, administrazioak erabiltzen dituen algoritmo eta adimen artifizial sistema guztiak barne hartuko dituena, baita hark azpikontratatzen dituen hornitzaileenak ere. Hain justu, Lore Martinez Axpek aurkeztutako mozioa dago akordioaren oinarrian.

Emaitza “diskriminatzaileak”

Funtsean, adimen artifiziala litzateke ahalmen konputazional izugarri handiko ordenagailuak milioika daturekin elikatu, algoritmoen bitartez datuok prozesatu eta patroiak identifikatu ostean ondorioak ateratzea edo “erabakiak hartzea”. Soluzio bat bilatzeko egiten diren eragiketa edo prozedurak dira algoritmoak. Arazoetako bat zein den? Emaitzak “diskriminatzaileak” izan daitezkeela askotan, Martinezen hitzetan. Administrazio publikoari ere aplika dakioke hori. Alegia, adimen artifizialaren datu uholdeaz ari garenean, kontuan izan behar da informazio hori prozesatzen duten algoritmoek herritarrak diskriminatu ditzaketela.

Adibide bat jartzearren: Ertzaintzak indarkeria matxistaren arriskua neurtzeko sistema xenofobo bat erabiltzen duela ondorioztatu zuen Algorithm Watch-ek egindako ikerketa batek. Galdeketa psikologiko bat du oinarri EPV-R algoritmoak, eta besteak beste biktimak edo delitugileak “atzerritarrak” ote diren galdetzen du. Gainera, galdetegiak, atzerritar gisa mendebaldarrak ez direnak baino ez ditu jotzen. Oskar Fernandez Ertzaintzako ikuskatzaile nagusiak azaldu zuenez, “europarrak ez diren bestelako kultura dutenak” sartzen ditu kategoria horretan.

Halaber, AEBetako Cornel Unibertsitateak EPV-R-ren errendimendua aztertu zuen, eta ondorioztatu zuenez, beste bide batzuetatik “arrisku handikotzat” jo ziren kasu gehienak (%53) “arrisku txikikoak" zirela ondorioztatu zuen algoritmoak. Hau da, arrisku handia dago algoritmo horrek “kasu larriak” gisa horretan ez baloratzeko.

Dirulaguntzak ukatzeko ahalmena

Herritarren ekonomian eragiten duten erabakiak ere har ditzakete adimen artifizial horiek. Horietako bat da Bosco, argindarrararen faktura ordaintzeko gizarte-bonua erregulatzen duena. Eskaerak berrikustean esku hartzen du, eta emaitza erabakitzeko eskumena ere badu. Civio taldeak algoritmoaren zenbait diskriminazio salatu zituen, laguntza jasotzeko eskubidea duten sektore batzuk kanpoan uzten dituelako.

Dirulaguntza hau jasotzeko hiru aukera daude: errenta baxuak izatea, familia ugaria izatea edo gutxieneko ezintasun- edo erretiro-pentsio baten onuraduna izatea. Alargun batek azken hori aukeratu beharko luke, baina Boscok “kalkulatu ezinezkotzat” jotzen du prozedura eta hori da enpresa elektrikoei helarazten dieten mezua. Hala, alargunei laguntza ukatzen die, jasotzea dagokien arren. Familia ugariko kideek, berriz, beren errentak edonolakoak izanda ere, laguntza hori jasotzeko eskubidea dute, legez. Boscok, ordea, eskatzaileen errenta aztertu behar izaten du, eta norbaitek ez badu bere diru-kontuak aztertzea baimentzen, ez zaio laguntza hori ematen, algoritmotik kanpo uzten dituelako.

Algoritmoek, aplikatzen zaien adimen artifizialaren arabera, diskriminazioa “esponentzialki handitu” dezaketela azaldu du Martinezek. “Horregatik da hain garrantzitsua datuak ongi prestatzea algoritmoekin. Saiatu behar dugu datuak diskriminatzaileak izan ez daitezen, eta algoritmora sartzen direnerako oinarri ona izan dezaten”.

Algoritmoen erregistro publikoa

Zer izango da herritarrek kontsultatu ahal izango dutena? Funtsean, norberaren datuak non eta zertarako erabili diren jakiteko eskubidea izango dute. EH Bilduko legebiltzarkideak adibide bat ekarri du podcastera. Demagun, norbaitek gaixotasun bat izan duela eta bere datuak erabili dituela algoritmo batek, aurreikusteko gaixotasun hori jasan duten pertsonek berriz ere gaixotzeko zer baldintza bete behar dituzten. Datu horien jabeak jakin ahal izango du hori guztia, datu horiek eragin diskriminatzailerik izan ote duten ere bai. Horrez gain, norbait ez badago bere datuei erabilera hori ematearekin konforme, nola apelatu dezakeen ere jakinarazi beharko zaio.

Norberaren datuekin zer egin den jakin ahal izango du herritar orok, baina askok eta askok algoritmo bat zer den ere ez dakite oraindik. Horregatik, erabiltzen den hizkuntzari garrantzia eman dio Martinezek: “Herritarrek ulertzeko moduan azaldu behar da. Erregistroa ez da informatikoek kontsultzeko, edonork kontsultatzeko baizik”.

Erregistro publikoa sortzea “0. fasea" baino ez da, EH Bilduko legebiltzarkidearen hitzetan. “Onurarik handiena da algoritmoen kontua sozializatzen hasi garela. Gure datuak nola lantzen diren jakitea herritarron oinarrizko eskubide bat da, nahiz eta oraindik asko dagoen egiteko”. Auditoriak beharrezkotzat jo ditu Martinezek, hitz emandakoa betetzen dutela frogatzeko eta diskriminaziorik ez dagoela egiaztatzeko.

Lehen autonomia erkidegoa

EAE izan da algoritmoen erregistro publikoa onartu duen Espainiako Estatuko lehen autonomia erkidegoa. Hala ere, Europako zenbait hiritan badira kasu gehiago: Bartzelonan, Helsinkin eta Amsterdamen. Europar Batasuneko adimen artifizialeko batzordearekin kontsultatu zuen EH Bilduk Eusko Legebiltzarrean egindako proposamena, eta Martinezek azaldu du, batzordeko kideek esan zietenaren arabera, erregistro publikoak egitea “tendentzia” izango dela Europako gainerako herrialdeetan ere.

Kataluniako hiriburukoa nabarmendu du legebiltzarkideak. Apirilean, administrazioan algoritmoen erregistro publiko bat sortzearen inguruan lau adituk hitz egin zuten Eusko Legebiltzarrean, tartean Michael Donaldson-ek, Bartzelonako Udaleko Berrikuntza Teknologikoko, Administrazio Elektronikoko eta Gobernu Oneko ordezkariak, eta Bartzelonako kasuaren berri eman zuen.

Kontatu zuen nola 2022. urte bukaeran protokolo bat onartu zuen hango udalak, algoritmo bat erabili aurretik eta ondoren hartu beharrezko neurriak zehazten zituena. Protokoloaren arabera, zerbitzu publikoa eskaintzeko sistema algoritmiko bat erabili aurretik, informatika zerbitzuak arriskuen ebaluazioa egin beharko du. Arrisku handikotzat jotzen ditu eskubide sozialak edo herritarren datuak ukitzen dituzten prozesuak, baita dirulaguntzak banatzean diskriminazioak eragin ditzaketenak ere.

Probatu aurretik, merkatura

Martinezek teknologia ez probatzearen arriskuaz ohartarazi du. “Teknologiarekin progresistak izateko tendentzia handia daukagu, eta produktu berriak aurrez hausnartu gabe erabiltzen ditugu. Ari gara ikertzen, berritzen, teknologia soluzio digital berriak ateratzen, eta berritu bezain laster merkatura ateratzen ditugu”. Botikekin egin du alderaketa. “Sendagaiak ere ikertu eta berritzen dira, baina merkatura atera aurretik milaka proba egiten dira horien ondorioak jakiteko; gero, ondorio horiek prospektu batean azaltzen dira. Prospektu horrek azaltzen du sendagai horrek zein kalte eta arrisku dituen”. Legebiltzarkidearen ustez, adimen artifizialean ere berdin jokatu behar litzateke: “Behin produktua aurrean izanda, galdetu behar da: ‘Zein kalte ditu? Bermatzen al du datuen babeserako legea? Diskriminatzailea al da?’”.

ChatGPT adimen artifizialarekin ere berdin jokatu zutela dio: “Lau hilabetean produktua bukatu eta merkaturatu egin zuten, zuzenean”. Tresna horrek ez du datuen babeserako legea betetzen, eta, horregatik, Italian debekatu egin dute, merkaturatu ondoren. “Nire ustez hori hasieratik egin behar zen. Ez da utzi behar teknologiarik merkaturatzen, ez badago aurrez probatuta”. Lan hori enpresaren ardura dela uste du: “Enpresa batek ez luke merkaturatu behar pertsonon kalterako izan daitekeen zerbait”.

Euskal Herrian zer?

“Km0-ko eraldaketa digitala” defendatu du Martinezek, horren bitartez soluzio teknologikoak Euskal Herrian eraldatu eta hobetuko liratekeelakoan. Horrek datuak bertan geratzea ekarriko luke. Gainera, “politika publiko onekin” talentu teknologikoa ere hemen sortu, sustatu, eta, baldintza onak bermatuz gero, hemen geldituko litzateke, bere hitzetan.
Hala ere, Euskal Herrian jada teknologiako adituen “ekosistema indartsua” dagoela uste du, “zer esanik ez konputazio linguistikoan”. Ordea, hori diruz laguntzen ez bada “jai” daukagula ohartarazi du. Besteak beste, GAITU gisako euskarazko hizkuntza-teknologien aldeko proiektuak finantzatzea beharrezkotzat jo du. “Euskarak bizirauteko eraldaketa digitalaren parte izan behar du, bestela, ez du etorkizunik izango”.

Martinezek espero du adimen artifizialak inoiz ez aurre hartzea gizakiari, “baina ez da erraza izango”. Araudiak eta legeek kontzientzia pizten lagundu behar dutela dio: “Ea guztion artean gai garen teknologia digitalak gizakion bizitzak hobetzeko erreminta izan daitezen, eta ez kontrakoa gertatzeko”.