Ujué Agudo: “Adimen artifizialaz egiten dugun erabilerari buruzko eztabaida kritikoa zabaldu behar dugu”

Argazkia: Iñigo Sierra | Kultura Zientifikoko Katedra.

 

Ujué Agudo Psikologian doktorea da. Deustuko Unibertsitatean egin zuen tesia eta, gaur egun, unibertsitate berean dihardu. Erabaki-prozesuan —batzuetan, kontziente izan gabe—-adimen artifizialeko algoritmoek nola eragiten duten ikertzen du.

 

Datorren ostegunean, maiatzaren 15ean, Algoritmo paternalistak. Nola eragiten dioten gauzak kontatzeko dugun moduari hitzaldia emango du Generoa eta zientziaren komunikazioa 2025 jardunaldian. Elkarrizketa honetan AAk gure erabakietan duen eraginari buruz hausnartzen du, eta baita zergatik behar dugun prentsamendu kritiko gehiago adimen artifizialaren gero eta presentzia handiagoaren aurrean ere.

 

Adimen artifiziala gure bizitza erraztu eta hobetzeko helburuarekin sortu zen. Zure ikuspuntutik, uste duzu lortzen ari dela?

 

Desira bat egon da beti, teknologiari esker gure ustez aspergarriak, zikinak edo arriskutsuak diren zereginak automatizatu ahal izatea. Neurri batean, lortzen ari da, baina aurreikusi ez genituen eta oraindik sakon aztertu ez ditugun esparruetan ere erabiltzen ari dira. Esaterako, sormen-lanen garapenean, giza portaera aurresaten duten sistema prediktiboetan edo arrisku-sistemetan.

 

Bien bitartean, lan neketsu jakin batzuk ematen dizkiegu pertsona batzuei, hala nola, datuak garbitzen edo sareko edukien zaintzaile izaten, eta, printzioz, zeregin horiek askatzeak zentzu handiagoa izango luke. Nire ustez, adimen artifizialaren erabiliri buruz gehiago hausnartzea falta zaigu.

 

Badirudi gaur egun AAk baldintzarik gabeko atxikimenduak edo erabateko gaitzespenak eragiten dituela. Non kokatzen zara zu eztabaida honetan? Zer arrisku ikusten dituzu jarrera bietan?

 

Egia esan, ez dut gustuko bi muturretako bat bera ere. Bi jarrera horiek sinplifikatu egiten dute nire ustez konplexuagoa den eztabaida. Teknologian eta ikerketan egiten dut lan, eta, horregatik, funtsezkoa iruditzen zait egiten ari garen erabilerei buruzko hausnarketa kritiko bat egin ahal izatea, nola erabil dezakegun hobeto ikusteko, eta ez erabilera bera kritikatzeko.

 

Adibidez, gizarte-laguntza bat nork jasoko duen erabakitzeko algoritmo batean itsu-itsuan konfiantza izateak erabaki horren giza ondorioak alde batera utz ditzake. Baina teknologia erabiltzeari uko egiteak, berauk eskaintzen duen eraginkortasuna eta azkartasuna ere ken diezaguke.

 

Zure ikerketa-eremuak AAk giza erabakietan duen eragina aztertzen du. Nola eragiten digu teknologiak prozesu horretan?

 

Adimen artifizialaren gomendioek nola baldintzatzen gaituzten aztertuz hasi zen nire ikerketa. Esplizituenetatik hasi, “aukeraketa hau zurekin bateragarriena izango litzateke” bezalako erantzunekin, eta sotilenetaraino, pertsonen isuri kognitiboak baliatuz.

 

Gainera, gero eta prozesu gehiago diseinatzen dira AAk erabakia har dezan, baina pertsona batek gainbegirada ere egon dadin, batez ere, arrisku handiko egoeretan. Izan ere, dagoeneko Europar Batasunak ezarri du horrelako prozesuetan beti egon behar dela giza-gainbegiratzea.

 

Ildo horretan, ikertzen ari naiz nola eragin dezakeen prozesu horren diseinuak, arrisku handiko testuinguruetan, sistema automatizatuekin batera erabakiak hartzen dituzten gizakien zuzentasunean, konfiantzan eta erantzukizunean.

 

Zeintzuk dira alborapen ohikoenak egunero erabiltzen ditugun AA tresnetan?

 

Gehien aztertu den alborapenetako bat automatizazio-alborapena da, hau da, gizakiak algoritmoen gomendioetan gehiegi fidatzeko duen joera, asmatzen duenean zein huts egiten duenean. Teknologian, oro har, duela hamarkada batzuk atzemandako alborapena da; hegazkingintzan eta medikuntzan, besteak beste.

 

Gaur egun, automatizazio-alborapen hori bereziki garrantzitsua da gizakiek gainbegiratutako arrisku handiko prozesu automatizatuetan; izan ere, zalantzan dago benetan gai izango den gizakia AA gainbegiratzeko edo eskaintzen dizkion gomendioak edo iradokizunak itsu-itsuan onartuko dituen.

 

Bestalde, gure pertzepzioa nola aldatzen den ere ikertzen dut, zerbait adimen artifizialaren bidez sortu dela dakigunean, adibidez, artean, edo zineman. Kasu horietan gure aurreiritziek eragina dute.

 

Zure hitzaldiaren izenburua da Algoritmo paternalistak. Nola eragiten dioten gauzak kontatzeko dugun moduari, zure liburuak duen titulu berbera. Zer esan nahi du kontzeptu horrek?

 

Liburua Karlos G. Liberalekin batera idatzi dut eta guretzat algoritmo paternalistak dira gure erabakietan eragiten duten sistema teknologikoak, modu opakuan edo gure erabateko baimenik gabe, horrela emaitza guretzat hobea izango delako premisarekin, “zuen onerako” egiten duela agertuz.

 

AA erabaki eraginkorragoak eta neutralagoak hartzeko modurik onena dela goraipatzen duen narratiba sortzen ari da. Hala ere, prozesatzeko gaitasun izugarria izateak eta eraginkortasun handiagoa aurresuposatu ahal izateak ez du bermatzen bere erabakiak beti egokiagoak izango direnik. Argudio horrekin, adimen artifizialaren esku uzten ari dira erabaki asko.

 

Algoritmoak diseinatzen dituztenen lanaz harago, zer ekintza-tarte dugu erabiltzaileok alborapenak murrizteko?

 

Pentsamendu kritikoa izatea. Batzuetan, AAk sortutako emaitzak ontzat ematen ditugu, hausnartu gabe, zuzenak diruditelako baino ez, eta sakon berrikusiko bagenitu ez lukete gure kalitate-iragazkia gaindituko. Emaitza horiei gure ideiak edo irizpideak gehitzen ez badizkiegu, baliorik ematen ez duten edukiak sortzen ditugu. Lasaitasun eta berriskupen gehiago behar dira, nahiz eta adimen artifiziala erabili lanaren zati bat egiteko.

 

Amaitzeko, zure hitzaldiaren ondoren, publikoa zein ideia nagusirekin geratzea nahiko zenuke?

 

Eragin handiko erabakietan, esaterako, gizarte-laguntzetan edo zigor-arloko justizian, algoritmoak nola erabiltzen ari garen hausnartzea nahi dut, askotan AAren “nagusitasunaren” narratiba zalantzan jarri gabe.

Horretarako, adibide zehatzak aipatuko ditut, besteak beste, Lavender algoritmoa, Israelgo armadak Gazan erabiltzen duena helburuak identifikatzeko; eta RisCanvi, Kataluniako kartzeletan berrerortzeko arriskua aurreikusteko erabiltzen den sistema. Bi kasuok erakusten dute zelan giza-gainbegiratzea azalekoa edo ia ez dela existitzen, eta nola AAren esku uzten ari den hau askotan kritikoki pentsatu gabe.

 

Egileaz: María Larumbe (@emelarumbe.bsky.social) UPV/EHUko Kultura Zientifikoko Katedrako komunikazio arduraduna da.