Opinió

Intel·ligència artificial: desafiaments en ciberseguretat

Els sistemes d’IA són tan confiables com les dades amb què són entrenats, hereten els mateixos defectes

La intel·ligència arti­fi­cial (IA) trans­forma la indústria mit­jançant solu­ci­ons inno­va­do­res i més eficiència en una quan­ti­tat ingent de pro­ces­sos. Però de la mà d’aquests avanços aflo­ren nous ris­cos en ciber­se­gu­re­tat que han d’abor­dar-se a fi i efecte de pre­ser­var la inte­gri­tat dels sis­te­mes d’IA i les dades en què es basen.

Un dels rep­tes més noto­ris radica en la natu­ra­lesa de “caixa negra” de molts sis­te­mes d’IA. Aquests algo­rit­mes com­ple­xos pre­nen deci­si­ons en base a models de caire pro­ba­bilístic que, en mol­tes oca­si­ons, estan man­cats de trans­parència. Tal opa­ci­tat pot gene­rar errors o resul­tats ines­pe­rats difícils de cor­re­gir, sobre­tot quan aquests sis­te­mes enfron­ten esce­na­ris que se situen al marge de les seves dades d’entre­na­ment. Per citar només un exem­ple: una petita alte­ració en una imatge mèdica pot moti­var que una eina de diagnòstic basada en IA clas­si­fi­qui de forma errònia una con­dició, pos­si­bi­li­tat aquesta que poten­ci­al­ment podria resul­tar en deci­si­ons de trac­ta­ment incor­rec­tes. La manca d’expli­ca­bi­li­tat repre­senta una gran vul­ne­ra­bi­li­tat, atès que els interes­sats no poden com­pren­dre com­ple­ta­ment ni pre­dir el com­por­ta­ment de la IA, fet que difi­culta la iden­ti­fi­cació i miti­gació de ris­cos poten­ci­als.

Un altre aspecte crític té a veure amb la inte­gri­tat de les dades. Els sis­te­mes d’IA són tan con­fi­a­bles com les dades amb què són entre­nats. Quan aquests con­junts de dades són esbi­ai­xats, incom­plets o han estat mani­pu­lats de forma deli­be­rada, els models resul­tants here­ten aquests defec­tes. Els atacs adver­sa­ris –actors malin­ten­ci­o­nats que alte­ren de forma sub­til les dades d’entrada per a enga­nyar els sis­te­mes d’IA– subrat­llen encara més la fra­gi­li­tat dels models d’intel·ligència arti­fi­cial davant aquesta dependència de dades. Aquests atacs poden tenir con­seqüències greus, en par­ti­cu­lar en àrees com la con­ducció autònoma o el reco­nei­xe­ment facial, on els ris­cos són molt alts.

Les tec­no­lo­gies d’intel·ligència arti­fi­cial gene­ra­tiva (ChatGPT) apor­ten una altra capa de des­a­fi­a­ments en matèria de ciber­se­gu­re­tat. Es tracta de sis­te­mes que són sus­cep­ti­bles a injec­ci­ons de coman­da­ments, on els ata­cants mani­pu­len els “prompts” o ins­truc­ci­ons d’entrada per pro­vo­car res­pos­tes ina­pro­pi­a­des o noci­ves. Així mateix, l’ús inde­gut d’iden­ti­tats cor­po­ra­ti­ves en el con­text d’interac­ci­ons amb sis­te­mes d’IA gene­ra­tiva pot por­tar a l’expo­sició no inten­ci­o­nada de dades sen­si­bles, una pos­si­bi­li­tat que podria posar en risc la segu­re­tat i la repu­tació de la marca.

Abor­dar aquests des­a­fi­a­ments demana una estratègia inte­gral de ciber­se­gu­re­tat que abasti tot el cicle de vida de la IA (reco­pi­lació de dades, entre­na­ment, des­ple­ga­ment i moni­to­rit­zació). Els ele­ments clau inclo­uen una gover­nança de dades estricta, meca­nis­mes sòlids d’encrip­tació, pro­ves de pene­tració i un moni­to­ratge con­tinu d’ano­ma­lies. A més, imple­men­tar super­visió humana en punts crítics de decisió pot aju­dar a miti­gar els ris­cos asso­ci­ats amb les capa­ci­tats de presa de deci­si­ons autònomes de la IA.

En l’entorn des­crit, és evi­dent que les orga­nit­za­ci­ons estan cri­da­des a ali­near les seves pràcti­ques de ciber­se­gu­re­tat amb els objec­tius empre­sa­ri­als, asse­gu­rant que les estratègies de gestió de ris­cos esti­guin infor­ma­des per les for­mes específiques en què es des­plega la IA. Desen­vo­lu­par una com­prensió clara de com les tec­no­lo­gies d’intel·ligència arti­fi­cial s’inte­gren en els pro­ces­sos empre­sa­ri­als pot aju­dar a pri­o­rit­zar els esforços de segu­re­tat i abor­dar les vul­ne­ra­bi­li­tats poten­ci­als de manera més efec­tiva. Per això, és cru­cial fomen­tar la col·labo­ració entre orga­nis­mes regu­la­dors, desen­vo­lu­pa­dors d’IA i usu­a­ris finals. Esta­blir estàndards com­par­tits per a la ciber­se­gu­re­tat en IA, jun­ta­ment amb un marc legal en evo­lució (com és el cas del Regla­ment d’IA de la UE o AI Act), aju­darà a miti­gar ris­cos i a cons­truir resiliència enfront d’ame­na­ces emer­gents. La recent­ment publi­cada AI Act repre­senta un pas pro­me­te­dor en aquesta direcció, tota vegada que vol garan­tir el com­pli­ment –i un des­ple­ga­ment segur– d’aquesta tec­no­lo­gia en tots els sec­tors.

Sigui com sigui, l’adopció segura de la IA passa per equi­li­brar el seu poten­cial amb rigo­ro­ses mesu­res de ciber­se­gu­re­tat. En iden­ti­fi­car de forma pro­ac­tiva les vul­ne­ra­bi­li­tats i imple­men­tar una gover­nança sòlida, les empre­ses poden apro­fi­tar el poder de la intel·ligència arti­fi­cial mini­mit­zant els ris­cos, garan­tint que aquesta tec­no­lo­gia trans­for­ma­dora ser­veixi al con­junt de la soci­e­tat i ho faci de forma ètica i segura.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.