Encantats amb la IA, però amb responsabilitat
Cursa contra rellotge de legisladors i professionals multidisciplinaris per construir una tecnologia sense biaixos, fiable i respectuosa amb la privacitat de les persones
“La intel·ligència artificial (IA) generativa s’ha democratitzat. No se li ha de tenir por, però sí que s’han de tenir en compte i controlar els riscos operatius, ètics i de regulació que l’acompanyen”, afirma Bárbara Fernández, directora adjunta de Mapfre Open Innovation i responsable d’Insur_space.
Durant l’ITC/DIA, l’esdeveniment més gran d’Europa de l’àmbit insurtech, celebrat a finals del juny passat a Barcelona, el grup assegurador Mapfre va presentar l’informe Intel·ligència artificial responsable: tecnologia de confiança, segura i sostenible per generar l’economia del futur, en què ja es percep que l’ús responsable de la IA és una prioritat per als consells directius de les companyies. Per tant, indica l’informe, el primer pas ha de ser definir les bones pràctiques, els estàndards i serveis que ens permetran avaluar, monitorar i mitigar els riscos.
Segons Fernández, que va participar com a ponent en una de les conferències de l’esdeveniment, “les asseguradores han d’actuar com a xarxa de seguretat en aquest entorn, a més d’acompanyar i impulsar els projectes i innovacions que adoptin aquesta tecnologia”: “La col·laboració mútua és la millor manera per avançar-nos i liderar el camí que ens ha de dur a l’ús d’una IA ètica i d’una governança responsable.”
La intel·ligència artificial (IA) ha passat en un temps rècord de ser una tecnologia d’uns pocs a aplicar-se de manera massiva. No hi ha sector econòmic que no elogiï els seus grans beneficis, que sense dubte provocaran canvis en el desenvolupament de l’economia i de la societat del món sencer, però també es temen els seus riscos.
“Es pot demostrar que la IA fa servir ‘al·lucinacions’, s’inventa coses. Per aquest motiu, per exemple, ChatGTP ha contractat personal a Kenya per filtrar respostes, perquè és una qüestió que s’ha de frenar. Tanmateix, s’ha de tenir en compte que, per disseny de la mateixa IA, això és inevitable”, explica Brian Subirana, catedràtic d’IA a EADA Business School, i també professor d’IA a la Universitat de Harvard i al MIT (Massachusetts Institute of Technology).
La IA generativa, comenta Subirana, “es basa a intentar confondre un model discriminatori d’una xarxa ben entrenada, la intenta enredar i per fer-ho copia els biaixos, no els elimina. A més, fer-ho al cent per cent és impossible. Per tant, el risc de la IA generativa no tutelada és inevitable”.
Sense aturador.
“No podem posar fre al desenvolupament de la IA. Mai no havia vist una evolució tan ràpida d’una tecnologia, i aviat serà impossible no fer-la servir”, afirma Subirana. Per a ell, dos àmbits on aquesta tecnologia pot generar molt valor són el de la salut i la robòtica. “Les dades compartides sumades a la IA poden fer néixer un nou model d’atenció mèdica basat en la prevenció”.
Per tant, aconseguir una IA generativa fiable i responsable comporta fer possible que accedeixi a les dades, perquè només així es podran minimitzar els riscos inherents i fer que sigui el més justa i imparcial possible. Per tant, el marc que l’ha de regular hauria de facilitar un gran intercanvi de la informació. A Catalunya, segons les últimes dades oficials (2019), hi ha 179 empreses dedicades a la IA, 92% de les quals són pimes que ocupen gairebé 8.500 professionals.
Una llei per extremar la vigilància
El projecte de llei europeu per regular la IA tipifica els principis que s’hauran d’aplicar a tots els sistemes que utilitzin la tecnologia: intervenció i vigilància humanes, solidesa i seguretat tècnica, privacitat i governança de dades, transparència, benestar social i mediambiental i diversitat, equitat i no discriminació. Classifica les plataformes que la utilitzen en funció del risc potencial que suposen per al benestar social -risc mínim, limitat, alt risc i risc inacceptable-, a més d’establir diversos nivells d’obligacions informatives i de seguretat per als usuaris, i el règim sancionador per als incompliments.
El text de la futura norma també prohibeix específicament els sistemes d’identificació i classificació biomètrica, així com la creació de bases de dades de reconeixement facial i emocional basada en la biometria, i estableix sancions que s’estenen dels 5 als 40 milions d’euros. Segons l’últim estudi de la consultora Boston Consulting Group, fet públic el juny passat, es preveu que el negoci que generarà la IA generativa se situarà al voltant dels 121 bilions d’euros el 2027.