Ciència

Pandèmia d’estafes i ‘deepfakes’ amb IA

Governs, policies i empreses tecnològiques lluiten contra les falsificacions, sense èxit aparent

La identitat suplantada d’un director financer permet estafar 25 milions a una multinacional

Un directiu de Ferrari va estar a punt de caure en el parany d’una veu falsificada amb IA

Un correu misteriós, una transferència milionària i una videotrucada amb el seu cap es van convertir en el pitjor malson d’un empleat d’una multinacional a Hong Kong. La víctima va caure en una ciberestafa que va costar a la seva empresa 25 milions d’euros, destapant així els temors més profunds sobre la intel·ligència artificial (IA). Tot va començar amb un correu electrònic suposadament enviat pel director financer de l’empresa, sol·licitant una sèrie de transferències. Després de demanar més detalls, l’empleat va participar en diverses videotrucades amb directius que semblaven reals però que en realitat eren deepfakes, manipulacions digitals tan convincents que no van aixecar cap sospita. Els ciberdelinqüents van utilitzar IA per replicar veus i aparences, i van aconseguir que l’empleat transferís una suma colossal. L’engany es va descobrir quan el veritable director financer va convocar una reunió urgent, però ja era massa tard. Aquesta estafa destaca el creixent perill dels deepfakes, una amenaça que posa en escac la seguretat d’individus i empreses arreu del món.

La IA ha evolucionat ràpidament portant nombrosos beneficis però també greus amenaces. Un dels fenòmens més preocupants són els deepfakes, continguts falsificats amb IA que poden manipular la veu, el rostre i fins i tot el comportament d’una persona en vídeos i àudios. Inicialment, les víctimes principals d’aquesta tecnologia eren les celebritats, però ara s’ha democratitzat fins al punt que qualsevol persona pot ser objecte de suplantacions i estafes. Aquest problema s’ha convertit en una pandèmia global, amb parlaments, governs, policies i empreses tecnològiques de tot el món intentant combatre-ho sense gaire èxit.

Agafar una imatge, vídeo o àudio d’algú i transformar-ho en un contingut multimèdia de qualitat per fer-li fer o fer-li dir el que es vulgui i en l’idioma que es vulgui és senzill amb aplicacions d’IA a l’abast de tothom. Els deepfakes ja són una preocupació per a tothom. Les policies han detectat estafes on la veu de familiars o coneguts és suplantada amb IA per enganyar ciutadans corrents. Els delinqüents fan deepfakes per les estafes, com el “frau del CEO”, on se suplanta la veu d’executius per aconseguir transferències bancàries milionàries.

Un executiu de Ferrari va rebre missatges suposadament del seu CEO, Benedetto Vigna, a través de WhatsApp, demanant la seva ajuda per a una adquisició important. Els detalls van aixecar sospites, i quan va rebre una trucada amb la veu del CEO perfectament simulada amb IA, va decidir verificar la identitat. Una pregunta clau sobre un llibre recomanat va desemmascarar l’intent de frau, fent penjar la trucada de l’estafador de cop. Davant d’aquests riscos, pactar preguntes o contrasenyes secretes entre empleats, directius i, fins i tot, familiars esdevindrà una pràctica habitual per evitar aquests enganys.

El cap de l’àrea central de delictes econòmics dels Mossos d’Esquadra, José Ángel Merino, adverteix sobre l’augment d’aquests fraus. “Estem veient com els deepfakes de veu s’utilitzen en trucades telefòniques per obtenir dades personals o diners,” explica Merino.

Un deepfake del president ucraïnès Zelenski va ser utilitzat per desinformar durant la guerra a Ucraïna, i a Birmània es van imposar càrrecs de corrupció basats en un vídeo deepfake. En la política nord-americana, durant la campanya electoral, s’estan utilitzant deepfakes per manipular l’opinió pública, com un d’Elon Musk promocionant una criptomoneda falsa.

Tant els parlaments i governs com les grans empreses tecnològiques estan prenent mesures per combatre aquesta amenaça global. La Unió Europea treballa en regulacions per criminalitzar la creació i distribució d’imatges generades per IA amb finalitats de desinformació o abús sexual infantil.

Entre les empreses tecnològiques, Meta (Facebook) ha començat a etiquetar continguts generats amb IA per proporcionar més transparència als usuaris. Google i Intel estan desenvolupant tecnologies per detectar contingut falsificat. Malgrat això, la velocitat amb què avança la tecnologia de deepfakes fa que sigui difícil mantenir-se al dia en la seva detecció.

No obstant, hi ha hagut alguns èxits notables en la lluita contra els deepfakes. Algunes plataformes, com Deepware Scanner i DeepfakeProof, ofereixen eines gratuïtes per detectar vídeos manipulats. Aquestes eines ajuden tant individus com empreses a protegir-se millor contra els fraus.

Un exemple és la campanya d’alerta de l’Instituto Nacional de Ciberseguridad (Incibe) a l’Estat espanyol, que ha ajudat nombroses persones a identificar trucades fraudulentes. Això demostra la importància de la sensibilització i l’educació en la protecció contra els deepfakes.

Detectar un deepfake no és senzill, però hi ha algunes pistes que poden ajudar. Els experts recomanen frenar la sensació d’urgència, ja que els ciberestafadors sovint creen una situació d’alarma per evitar que la víctima pensi críticament. És important verificar sempre l’origen de la informació i buscar cobertura alternativa per assegurar-se de la seva veracitat. Les anomalies visuals o auditives, com errors en la llum, les ombres, els reflexos o la sincronització dels llavis en vídeos, poden ser indicadors de contingut falsificat. A més, utilitzar eines tecnològiques com Deepware Scanner pot ajudar a identificar-los. La AI Act de la Unió Europea també té un paper crucial en aquest àmbit, establint un marc legal per regular l’ús de la IA i prevenir la creació i distribució de contingut manipulat.

La batalla contra les falsificacions profundes és lluny d’acabar. Els experts coincideixen que la combinació d’eines tecnològiques avançades i l’alfabetització mediàtica són clau per combatre el problema. La col·laboració internacional i la creació de marcs legals robustos seran essencials per abordar-lo. Serà vital que els governs, les tecnològiques i la societat civil treballin junts per desenvolupar estratègies efectives que protegeixin la integritat de la informació i la seguretat de les persones en aquest món digital cada cop més complex.

Shortwave: assistència per al correu electrònic

Shortwave és una eina d’IA per a la gestió de correus que destaca per la suite completa de funcionalitats. Ofereix un xat per cercar correus antics fàcilment, extreure dades clau de fils de correu i generar contingut de les converses. Pots trobar correus sense esforç i obtenir respostes a preguntes com si fos ChatGPT.

Jan AI: executa models en local amb privacitat

Jan AI és un programari de codi obert que permet descarregar i executar models d’IA de Hugging Face en local, millorant la privacitat. Amb un ordinador de gamma mitjana, descarrega l’instal·lador per Windows, Mac o Linux, tria el model segons la capacitat de l’ordinador i comença a utilitzar la IA en local.

Duet AI: millora les reunions remotes

Duet AI per Google Workspace millora la qualitat d’àudio i vídeo en reunions remotes, genera subtítols traduïts en 18 idiomes, pren notes i resumeix les reunions. Crea una aparença de qualitat d’estudi per a tots els participants i utilitza reconeixement facial. Transcriu i resumeix la reunió i captura fragments de vídeo.

Runway: vídeos creatius, anuncis i pel·lícules amb IA

Runway és una eina d’IA per a la generació de vídeos creatius que ofereix una experiència d’exploració única. A diferència d’altres que utilitzen plantilles predefinides, Runway permet capturar i generar vídeos únics a partir de text. Amb Runway, la creativitat no té límits. Potent per a creadors i professionals del vídeo.

Diccionari

‘Slop’

Slop és un terme despectiu que descriu continguts creats amb IA generativa sense supervisió humana, produïts massivament i amb l’objectiu de monetització. Aquests continguts, com textos i imatges, sovint són de baixa qualitat i no aporten valor als usuaris. És similar al correu brossa però en forma digital.

Metacognició

La metacognició és la capacitat de pensar sobre el propi procés de pensament. En intel·ligència artificial, la metacognició implica que els sistemes tinguin consciència del seu propi funcionament, possibilitant l’autoajustament i la millora contínua. Això pot portar a una major eficàcia i adaptabilitat en la resolució de problemes.

Computació al núvol

La computació al núvol (cloud computing) és un model que permet l’accés remot a recursos informàtics, com emmagatzematge, servidors i bases de dades, a través d’internet. Aquesta tecnologia facilita la gestió flexible i escalable de recursos, redueix costos i millora l’accessibilitat per a empreses i desenvolupadors. Alguns exemples en són serveis com AWS, Google Cloud i Microsoft Azure.

Realitat augmentada

La realitat augmentada és una tecnologia que superposa informació digital, com imatges, sons i dades, al món real a través de dispositius com telèfons mòbils i ulleres especials. Aquesta combinació permet als usuaris interactuar amb elements virtuals en temps real i millorar experiències en camps com el joc, l’educació i la publicitat.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.