Gran angular

EUGENIA FUENMAYOR

DIRECTORA CIENTÍFICA DE L’ÀREA DIGITAL D’EURECAT

“L’ètica no pot quedar al marge de l’evolució tecnològica imparable”

La nostra gran preocupació és la privacitat de les dades que es donen als algoritmes
Per sort, encara falta molt perquè la intel·ligència artificial sigui analítica i reflexiva

Els algo­rit­mes com­pu­ta­ci­o­nals són una sèrie d’ins­truc­ci­ons sis­temàtiques i prèvia­ment defi­ni­des que s’uti­lit­zen en múlti­ples tas­ques. Una d’aques­tes tas­ques és opti­mit­zar els resul­tats de les con­sul­tes a inter­net, funció que rea­lit­zen els algo­rit­mes de recerca i orde­nació. Tan­ma­teix, aquests algo­rit­mes reflec­tei­xen els valors de qui els codi­fica, de qui desen­vo­lupa les ins­truc­ci­ons, i aquí és on es creen biai­xos que dis­cri­mi­nen per gènere, raça o llen­gua.

Quina és la fina­li­tat de les inves­ti­ga­ci­ons sobre els biai­xos a la xarxa que du a terme l’àrea digi­tal del cen­tre tec­nològic Eure­cat ?
La fina­li­tat última és acon­se­guir un inter­net amb qua­li­tat d’infor­mació pel que fa al big data. Tre­ba­llem en la iden­ti­fi­cació de dis­cur­sos d’odi i de notícies fal­ses, i pro­po­sem solu­ci­ons per fer que inter­net sigui tan trans­pa­rent com sigui pos­si­ble. Fem vigilància tec­nològica con­ti­nu­ada perquè en cada moment la indústria pugui apli­car les inno­va­ci­ons. Som un pont entre la uni­ver­si­tat i l’empresa.
També ana­lit­zen l’ús de la intel·ligència arti­fi­cial?
Tre­ba­llem en pro d’una intel·ligència arti­fi­cial justa i trans­pa­rent. Iden­ti­fi­quem els biai­xos en algo­rit­mes d’entre­na­ment, el risc de pri­va­ci­tat en les dades, i apli­quem solu­ci­ons que els mini­mit­zen o els eli­mi­nen.
Qui­nes inves­ti­ga­ci­ons desen­vo­lu­pen?
Tre­ba­llem en pro­jec­tes d’inves­ti­gació apli­cada, en con­sor­cis públics i també en d’altres finançats inter­na­ment.
Són abun­dants els biai­xos a les xar­xes?
Les dis­cri­mi­na­ci­ons les tro­bem en molts àmbits. Per exem­ple, en els sis­te­mes d’intel·ligència arti­fi­cial de Goo­gle o Ama­zon. Recordo una pro­posta de feina que va pre­sen­tar en una ocasió Goo­gle, en què es pri­o­rit­za­ven els homes davant les dones, i Ama­zon també ho ha fet, en aquest sen­tit, pel que fa a ocu­pa­ci­ons tec­nològiques. Això res­pecte a ofer­tes de feina, però tenim exem­ples molt més quo­ti­di­ans que pas­sen des­a­per­ce­buts per als usu­a­ris, però que inci­dei­xen en aques­tes posi­ci­ons dis­cri­mi­natòries.
Com ara...?
Doncs els chat­bots com Ale­xia o Siri. Tots dos uti­lit­zen veus de dona, i aquest fet per­pe­tua el paper de ser­vei que se li ha donat al gènere femení al llarg de la història. Aquest és un este­re­o­tip tan assu­mit soci­al­ment que el tro­bem abso­lu­ta­ment nor­mal. Això és el que hem de com­ba­tre.
Quin són els biai­xos majo­ri­ta­ris que han detec­tat?
Els més nom­bro­sos són els de gènere, però també és cert que és el biaix que més bus­quem a l’hora de pro­var les nos­tres solu­ci­ons i també és el focus de diver­sos pro­jec­tes nos­tres. Però en alguns casos, la dis­cri­mi­nació de gènere va acom­pa­nyada d’altres tipus de dis­cri­mi­na­ci­ons. Recordo un cas de biaix de gènere en què la dis­cri­mi­nació aug­men­tava si suma­ves dona i raça. Es trac­tava d’un sis­tema de vigilància biomètrica que iden­ti­fi­cava els sub­jec­tes teòrica­ment més sos­pi­to­sos i, en aquest cas, eren les dones de raça negra.
Han tro­bat algun altre tipus de biaix des­ta­ca­ble?
Hem col·labo­rat amb Wiki­pe­dia en la detecció de forats cul­tu­rals (cul­tu­ral gaps), és a dir, zones geogràfiques amb menor cober­tura que d’altres, i hem apor­tat eines per reduir-los amb la cre­ació del Wiki­pe­dia Diver­sity Obser­va­tory .
La incor­po­ració de la intel·ligència arti­fi­cial als algo­rit­mes com­pu­ta­ci­o­nals d’apre­nen­tatge per­met, entre altres fun­ci­ons, crear i alhora loca­lit­zar biai­xos, però què pas­sarà quan s’apli­qui la intel·ligència arti­fi­cial gene­ra­tiva? Encara es com­pli­carà molt més?
La gran pre­o­cu­pació de la inte­gració de la intel·ligència arti­fi­cial és la pri­va­ci­tat de les dades que s’entre­guen als algo­rit­mes. I aquest és un tema extre­ma­da­ment impor­tant perquè hem de pen­sar que els sis­te­mes reben cada vegada més dades per apren­dre. El big data s’uti­litza per entre­nar models, i aquest models han de ser trans­pa­rents i cor­rec­tes per poder fer front als biai­xos.
Per tant, què s’ha de tenir en compte?
Els nous models de llen­guatge són molt con­vin­cents i si la gent no és cons­ci­ent que poden con­te­nir erra­des o biai­xos, ells matei­xos faran de caixa de res­sonància i divul­ga­ran i impul­sa­ran aques­tes dis­cri­mi­na­ci­ons al glo­bal de la soci­e­tat. A hores d’ara, la Unió Euro­pea està inten­tant fer una regu­lació sobre això, i a mit­jans de juny va apro­var l’inici de nego­ci­a­ci­ons per la que serà la pri­mera llei del món que regula l’ús de la intel·ligència arti­fi­cial, que es pre­veu que esti­gui llesta a finals d’aquest any. La pri­o­ri­tat d’aquesta nor­ma­tiva és garan­tir que els sis­te­mes d’intel·ligència arti­fi­cial que s’uti­lit­zin a la UE siguin segurs, trans­pa­rents, amb traçabi­li­tat, no dis­cri­mi­na­to­ris i res­pec­tu­o­sos amb el medi ambi­ent. A més, sem­bla que també vol obli­gar que aquests sis­te­mes esti­guin super­vi­sats per per­so­nes i que aquesta tasca no es faci de manera auto­ma­tit­zada.
La nova llei diu alguna cosa sobre qui ha d’estar impli­cat en el dis­seny dels algo­rit­mes?
Allò que sabem, per ara, és que la nor­ma­tiva euro­pea indica que els desen­vo­lu­pa­dors tin­dran molta res­pon­sa­bi­li­tat, molta més que les com­pa­nyies, en el desen­vo­lu­pa­ment de la intel·ligència arti­fi­cial. Tan­ma­teix, el pro­blema segueix sent el mateix que tenim ara, i és que en el dis­seny i desen­vo­lu­pa­ment de la intel·ligència arti­fi­cial hi intervé una dona per cada cinc homes. L’incre­ment de la diver­si­tat és ara més neces­sari que mai.
Pensa que podria ser una opció fixar quo­tes en les eta­pes de dis­seny i desen­vo­lu­pa­ment de la intel·ligència arti­fi­cial?
Ins­tau­rar quo­tes que dis­cri­mi­nin posi­ti­va­ment la dona en aquest camp és molt difícil, perquè contínua­ment estan sor­gint noves tec­no­lo­gies, i les dones són mino­ritàries en les car­re­res STEM (l’acrònim en anglès que fa referència als estu­dis de ciències, tec­no­lo­gia, engi­nye­ria i matemàtica). El pro­blema s’ha d’ata­car abans, des de l’escola i la família. Les estadísti­ques ens indi­quen que hi ha tant talent en nens com en nenes, que a l’Estat espa­nyol es matri­cu­len a les uni­ver­si­tat més dones que homes, però que tan sols un 30% de dones trien estu­dis STEM i, dins d’aquests, el per­cen­tatge baixa si par­lem d’intel·ligència arti­fi­cial i com­pu­tació. S’ha de tren­car aquest cer­cle i crear refe­rents feme­nins per a les nenes que comen­cen ara l’escola, expli­car que les pri­me­res per­so­nes que van escriure un algo­ritme i un com­pi­la­dor per a pro­gra­mació van ser dues dones, tot i que els seus noms no apa­rei­xen mai. A aquest oblit també ajuda el fet que la gran majo­ria de pro­fes­sors uni­ver­si­ta­ris a les car­re­res STEM són homes.
Cada vegada són mes nom­bro­sos els col·lec­tius que dema­nen que l’ètica entri en el desen­vo­lu­pa­ment tec­nològic, també d’aquells que es postu­len con­tra­ris a un exces­siu crei­xe­ment de la intel·ligència arti­fi­cial. Es poden posar bar­re­res en aquest camp?
L’evo­lució tec­nològica no es pot atu­rar, i l’ètica no pot que­dar-ne al marge. La intel·ligència arti­fi­cial can­viarà mol­tes coses, per bé i per mal, però no té un rao­na­ment al dar­rere i, per sort, encara falta molt perquè sigui analítica. Però un pas més serà la intel·ligència arti­fi­cial refle­xiva, i aquesta sí que podrà tenir el con­trol del sis­tema. Per tant, la nos­tra meta ha de ser cons­truir les millors màqui­nes pos­si­bles, però també tan equànimes com sigui pos­si­ble, amb els humans man­te­nint-ne el con­trol.
Les màqui­nes podran suplir les per­so­nes algun dia?
Mai! Una màquina no té sen­ti­ments. Pots fer que simu­lin visió o olfacte, però mai expe­ri­men­tar allò que les per­so­nes per­ce­ben de passió, risc, amor, com­passió... No hem de tenir por dels avenços tec­nològics, però sí que hem de con­tro­lar el mal ús de la tec­no­lo­gia i estar vigi­lants i avançar-nos a pos­si­bles dis­cri­mi­na­ci­ons, mini­mit­zant-les al màxim. Per­so­nal­ment, soc molt posi­tiva en aquest sen­tit.
I això vol dir?
Que crec en la huma­ni­tat.

Investigadora i formadora

Eugenia Fuenmayor es va graduar en Informàtica l’any 1980, a Veneçuela. La seva, explica, va ser una promoció “totalment atípica”: “Les dones érem gairebé el 90% dels estudiants, però quan vaig passar a fer el doctorat, ja vaig ser l’única dona matriculada.” Fa vint-i-dos anys va decidir traslladar-se a Barcelona. Actualment, a més de la seva posició a Eurecat, imparteix l’assignatura Introducció a la programació, a la Universitat Pompeu Fabra, amb una majoria d’alumnes del gènere masculí. Tot i això, se la percep satisfeta quan explica que a Eurecat “un 48% de les més de 700 persones que hi treballen són dones”, una proporció que decreix lleugerament en l’àrea digital del centre tecnològic, on estan involucrats un centenar d’investigadors, tot i que “anem avançant”, assegura.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.