Administrazioak erabiltzen dituen algoritmoen erregistro publiko bat sortzearen inguruan hitz egin dute nazioarteko lau adituk Eusko Legebiltzarrean, EH Bilduko Lore Martinez Axpek proposatuta. Artikulu sorta batean haiek esandakoak laburbiltzen ari gara eta egunero bat argitaratuko dugu (hemen lehenengoa eta bigarrena). Hirugarren hitzaldia Manuela Battaglini Manrique de Larak eman du. Abokatua eta etika digitaleko aholkularia da Battaglini, erabaki algoritmikoetan eta datuen babesean aditua. Azkenaldian hautsak harrotu dituen ChatGPT tresnari buruz aritu da.
Neurozientzia konputazionalean eragin handikoa den David Marr ikerlariak, adimen artifizialeko edozein sistema hiru mailatan ulertu behar dela definitu zuen. Lehenengoa da mailarik garrantzitsuena, teknologiaren helburua zehaztea: zergatik sortuko den teknologia, zertarako balioko duen eta zein arazo konponduko dituen. Gainerako biak algoritmoaren eta hardwarearen inplementazioari dagozkio.
Teknologia zergatik behar dugun galdetzearen garrantzia
Battagliniren esanetan, teknologia berri gehienak diseinatzean, inplementazioari ematen zaio garrantzia, ez helburuak eta zergatiak zehazteari. ChatGPTrekin gauza bera gertatzen da: teknologiaren jabea den OpenAI enpresak ez du definitu zergatik eta zertarako sortu duen. Oinarrizko gabezia horren eraginez, jendarteari kalte egiten dioten ChatGPTren erabilerak ugaritzen ari direla dio.
Sam Altman, OpenAIko buruak ere, duela gutxi bere kezka adierazi zuen Twitterren, adimen artifiziala desinformazio masiborako erabili daitekeelako. Horri erantzunez, Battaglinik esan du: “Orain hasi dira arazoetan pentsatzen, ChatGPT Microsofti 10.000 milioitan saldu ondoren. Diruzalekeriari eman diote lehentasuna. Nola garatu pentsatu dute, baina sekulan ez zergatietan”.
ChatGPT pertsonen mailatik gertu?
Adimen artifizialak deep learning edo ikaskuntza sakonaz gain, ulermen sakona behar duela azaldu du adituak. Hain zuzen, hori da ChatGPTren ahulguneetako bat: ez du ulertzen ematen dituen erantzunetako hitz bat bera ere. Giza adimenaren eta ChatGPT bezalako hizkuntza-eredu handien arteko lau desberdintasun zerrendatu ditu:
Yann LeCun adimen artifizialaren aitabitxietako baten hitzak ekarri ditu gogora jarraian Battaglinik: “Denbora dexente da, Google eta Metak, ChatGPTren antzeko teknologiak dituztela beren laborategietan. Orain, ChatGPTren iritsierarekin publiko orokorrak posible dena ikusi du, baina oraindik ez dute ulertu zer den ezinezkoa”. LeCunen ustez, ezinezkoa da gizakien mailako adimen artifiziala sortzea ChatGPT bezalako hizkuntza-eredu handiekin.
Hari horretatik, Battaglinik esan du ChatGPT ez dela inolaz ere pertsonekin konparagarria, OpenAIk zenbait esparru profesional eta akademikotan gizakien mailako erantzunak emateko gai dela dioen arren. OpenAIk, eta erraldoi teknologikoek, nahasmenarekin jolasten dutela adierazi du adituak, hype deitua sortzeko, beren tresnen ustezko gaitasuna puzteko gezurrak esatera iritsiz.
Adibidez, ChatGPT abokatutza azterketa bat bikainarekin gainditzeko gai dela dio OpenAIk, baina ez dago argi nola erantzungo lukeen abokatuek eguneroko bizitzan dituzten arazoen aurrean. Izan ere, hizkuntza-ereduek eta pertsonek modu desberdinean ebazten dituzte problemak.
Sam Altman OpenAIko CEOaren beste adierazpen batzuk ere ekarri ditu gogora Battaglinik: “Etorkizunean adimen artifizialeko kontseilariak egongo dira osasun arreta ordaindu ezin dutenentzat”. Erabateko zentzugabekeria iruditzen zaio hori adituari: “Orduan, baliabide nahikorik ez dutenei bot batek emango die osasun arreta? Haien bizitza arriskuan jarriz?”.
Gary Marcus-en esaldi batekin laburbildu du egoera: “Ekaitz perfektua dugu: enpresen arduragabekeria, erabileraren zabalkunde orokorra, erregulazio falta eta zalantza kopuru erraldoia”.
Ez sinestu hype-a
Amaitzeko, adimen artifizialaren inguruan zabaldu diren ustezko arriskuen atzean dauden benetako arazoak zerrendatu ditu Battaglinik:
Argazkia: Eusko Legebiltzarra