Gran angular

Informació especial

Dades i IA: control o protecció?

La UE ha aprovat un nou reglament sobre l’ús de les dades en tecnologies disruptives

L’avenç de la intel·ligència arti­fi­cial (IA) està trans­for­mant la manera com interac­tuem amb la tec­no­lo­gia. Des de reco­ma­na­ci­ons en pla­ta­for­mes digi­tals fins a sis­te­mes de reco­nei­xe­ment facial, la IA depèn de grans volums d’infor­mació, cosa que ha gene­rat certa pre­o­cu­pació sobre la pri­va­ci­tat i els ris­cos d’un ús ina­de­quat de les dades. Per això, la Unió Euro­pea ha apro­vat el regla­ment (UE) 2024/1689, que esta­bleix regles per garan­tir que la IA es desen­vo­lupi de manera segura i res­pec­tu­osa amb els drets fona­men­tals.

Un dels prin­ci­pals objec­tius és evi­tar l’ús abu­siu de les dades per­so­nals. Algu­nes tec­no­lo­gies poden reco­pi­lar infor­mació sense que els usu­a­ris en siguin ple­na­ment cons­ci­ents, com sis­te­mes que ana­lit­zen ros­tres o veus per iden­ti­fi­car per­so­nes. Per evi­tar vul­ne­ra­ci­ons de la pri­va­ci­tat, el regla­ment pro­hi­beix la cre­ació de bases de dades de reco­nei­xe­ment facial a par­tir d’imat­ges d’inter­net o càmeres de vigilància sense con­sen­ti­ment. Això impe­deix que governs i empre­ses uti­lit­zin aquesta tec­no­lo­gia de manera indis­cri­mi­nada, reforçant el con­trol sobre la nos­tra infor­mació.

Així mateix, la nor­ma­tiva clas­si­fica els sis­te­mes d’IA segons el risc que poden repre­sen­tar. Els d’alt risc, com els uti­lit­zats en hos­pi­tals, bancs o admi­nis­tra­ci­ons, hau­ran de com­plir requi­sits estric­tes de segu­re­tat i trans­parència. Això inclou asse­gu­rar que les dades uti­lit­za­des siguin fia­bles i lliu­res de biai­xos dis­cri­mi­na­to­ris. També es reque­rirà la super­visió humana per evi­tar que deci­si­ons impor­tants es pren­guin exclu­si­va­ment per una màquina.

Pel que fa als sis­te­mes que interac­tuen direc­ta­ment amb per­so­nes, com assis­tents vir­tu­als o xat­bots, hau­ran de ser clara­ment iden­ti­fi­ca­bles. Els usu­a­ris han de saber en tot moment si estan par­lant amb una IA i no amb un humà. A més, quan una IA generi imat­ges, vídeos o àudios que puguin sem­blar reals, haurà d’indi­car-ho per evi­tar la difusió de con­tin­guts enga­nyo­sos o mani­pu­lats.

Un altre aspecte clau és la segu­re­tat de les dades per­so­nals en mans de sis­te­mes d’IA. A mesura que aques­tes tec­no­lo­gies evo­lu­ci­o­nen, també aug­menta el risc de fil­tra­ci­ons i cibe­ra­tacs. Per aquesta raó, el regla­ment obliga les empre­ses a imple­men­tar mesu­res de pro­tecció avançades per evi­tar que la infor­mació dels usu­a­ris sigui robada o uti­lit­zada frau­du­len­ta­ment. En cas d’una vio­lació de segu­re­tat, les empre­ses hau­ran d’actuar ràpida­ment per infor­mar els afec­tats i mini­mit­zar els danys.

Amb aquesta regu­lació, la Unió Euro­pea vol garan­tir que la IA es desen­vo­lupi sense posar en perill la pri­va­ci­tat dels ciu­ta­dans. Això no sig­ni­fica fre­nar la inno­vació, sinó esta­blir nor­mes clares perquè la tec­no­lo­gia es faci ser­vir de manera res­pon­sa­ble. Per als usu­a­ris, suposa més pro­tecció i trans­parència sobre l’ús de les seves dades. Per a les empre­ses, implica adap­tar-se a un marc nor­ma­tiu que pri­o­ritza la segu­re­tat i la con­fiança.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.