Ciència

De la correcció ‘woke’ a manipular la realitat

Les IA distorsionen la història i el present amb biaixos de raça, gènere i orientació ideològica

Casos recents demostren que pot perpetuar estereotips i ser censurada en països autoritaris

Gemini de Google va crear imatges de soldats nazis amb trets asiàtics en nom de la inclusivitat

Quan Google va llançar el seu model d’intel·ligència artificial Gemini, pocs s’imaginaven que acabaria generant imatges de soldats nazis amb trets asiàtics i víkings negres, tot en un esforç exagerat per evitar estereotips racials. Aquest error va exposar un problema profundament arrelat en la tecnologia: els biaixos dels algorismes de la IA. L’intent de Google de ser inclusiu es va convertir en una distorsió de la realitat històrica, fet que va aixecar una tempesta de crítiques i va posar en dubte la capacitat de les IA per oferir resultats precisos sense caure en l’excés de correcció política. Aquest cas va encendre un debat sobre els perills i les responsabilitats d’entrenar sistemes que poden modelar la nostra percepció del món.

El biaix en les IA no és un fenomen nou. Des dels primers intents de crear sistemes intel·ligents s’ha observat que les màquines aprenen dels humans i, per tant, absorbeixen els nostres prejudicis. En molts casos, aquests biaixos es manifesten en la forma en què la IA processa informació i pren decisions, reproduint i fins i tot amplificant estereotips socials.

L’exemple recent de Gemini, la IA desenvolupada per Google, que oferia resultats que van ser qualificats com a “ofensivament inclusius” en comptes de reflectir la realitat històrica o cultural, va generar una onada de crítiques, tant per part d’usuaris com de figures públiques. Google, davant aquesta crisi, va aturar la generació d’imatges de persones a Gemini per arreglar els problemes identificats.

Prabhakar Raghavan, vicepresident sènior de Google, va admetre en un comunicat que la IA havia “sobrecompensat en excés en alguns casos i havia estat massa conservadora en altres”. Això reflecteix una problemàtica més àmplia en la qual es troben moltes empreses tecnològiques: com garantir que les seves IA siguin justes i equilibrades, sense caure en l’exageració o la distorsió.

La qüestió del biaix no es limita a la raça o al gènere; també es manifesta en l’orientació ideològica de les IA. Això és especialment rellevant en el context polític actual, en què les tensions entre diferents corrents polítics són més intenses que mai. Un dels temes centrals en aquest debat és la percepció que algunes IA, com la mateixa Gemini de Google, tenen una tendència cap a una ideologia més progressista o, com alguns crítics la denominen, “woke”.

El terme woke es refereix a una consciència social i política, particularment en temes relacionats amb la justícia racial i la igualtat de gènere. Tot i que aquesta actitud pot semblar positiva en la superfície, s’ha criticat perquè, en alguns casos, ha portat a una sobreactuació que distorsiona la realitat. Això s’ha vist reflectit en la manera com algunes IA responen a preguntes sobre figures històriques i esdeveniments polítics, en què la IA podria mostrar un biaix cap a una narrativa progressista en detriment d’altres perspectives.

Elon Musk, una figura destacada en la indústria tecnològica i un crític vocal de l’anomenada cultura woke, ha estat un dels més actius a denunciar aquest biaix. Musk ha argumentat que IA com Gemini estan esbiaixades cap a l’esquerra política i que això pot tenir conseqüències perilloses, especialment en un moment en què les IA estan prenent un paper cada vegada més important en la societat. Per això Musk promou la seva IA, Grok, declaradament “incorrecta” i contrària a l’stablishment ideològic de Silicon Valley. La polarització política als Estats Units ha convertit les IA en un camp de batalla de les anomenades “guerres culturals”, en què la lluita per controlar la narrativa és intensa.

David Sacks, cofundador de la firma d’inversió Craft Ventures, sosté que la cultura corporativa de Google és la responsable dels problemes, ja que reflecteix els biaixos inherents de les persones que dissenyen i entrenen els models d’IA. Aquesta afirmació posa de manifest una realitat incòmoda: les IA no són neutrals, sinó que reflecteixen els valors i idees dels humans que les desenvolupen.

Aquesta situació ha portat a una revisió de com s’estan entrenant les IA i de quines mesures es poden prendre per evitar aquests biaixos. Alguns experts han suggerit la necessitat d’una major diversitat en els equips que desenvolupen les tecnologies, així com una supervisió contínua per garantir que els sistemes d’IA es mantenen imparcials i precisos. Tot i això, la complexitat d’aquesta tasca és immensa, ja que els biaixos poden ser subtils i difícils de detectar fins que ja han causat un impacte significatiu.

A banda de la controvèrsia a Occident, altres països també han vist com les seves IA es veien afectades per biaixos i, fins i tot, per censura directa. Un exemple destacat és la Xina, on el govern ha utilitzat la IA per controlar i censurar continguts en línia que consideren subversius o perillosos per a l’estabilitat social. L’ús de la IA com a eina de repressió política.

Un altre cas polèmic va ser el de la IA desenvolupada per Google anomenada Perspective. Aquesta eina es va crear per detectar discurs d’odi en línia, però va ser acusada de racista després que un estudi revelés que tendia a classificar les piulades escrites en “anglès afroamericà” com a més tòxiques que els escrits en anglès estàndard. Els investigadors de la Universitat de Washington van descobrir que Perspective era gairebé el doble de propensa a identificar com a ofensius les piulades escrites per afroamericans, un biaix que té profundes implicacions en la moderació del discurs en línia.

ChatGPT d’OpenAI també va ser criticat per generar respostes racistes i sexistes en les seves primeres versions. El cas va obligar l’empresa a ajustar els models. Això va demostrar que fins i tot les IA més avançades podien amplificar prejudicis si no se supervisen adequadament.

Un estudi de Bloomberg va revelar que les IA usades per generar imatges, com Stable Diffusion i Midjourney, mostraven biaixos significatius en la representació de persones en funcions professionals. Quan es van sol·licitar imatges de persones en professions com metges o advocats, les IA van generar una majoria aclaparadora d’homes blancs, mentre que les dones i les persones de pell fosca eren representades en rols menys prestigiosos o estereotipats.

GPTZero: detecció de continguts creats amb IA

GPTZero és una eina per detectar continguts creats amb GPT, ideal per a professors que volen saber si els seus alumnes han fet trampa. Analitza textos i identifica la presència d’IA en la seva creació. Integrada amb Excel i Google Sheets, millora la productivitat en la gestió de continguts educatius.

SchoolAI: ajuda els professors amb tasques diàries

SchoolAI és una eina dissenyada per ajudar els professors amb tasques repetitives com correus, planificació, generació d’idees, creació de tests i informes. Integrada a Excel i Google Sheets, millora la productivitat i permet als docents centrar-se en l’ensenyament. Millora la gestió de les tasques administratives.

AvatarAI: avatars fotorealistes personalitzats

AvatarAI és una eina especialitzada en la creació d’avatars fotorealistes a partir de les teves fotos. Amb un cost de 21 euros per paquet de 112 avatars, ofereix una gran varietat d’estils. És una de les eines més populars en la seva funció i permet als usuaris crear avatars personalitzats d’alta qualitat i realisme.

CodiumAI: anàlisi de codi i generació de proves amb IA

CodiumAI és un sistema d’IA dissenyat per analitzar el codi de programació i generar proves significatives per ajudar a trobar errors i bugs. Millora la productivitat i l’eficiència del desenvolupament de programari i automatitza la detecció de problemes. Simplifica el procés de depuració i assegura un codi net i fiable.

Diccionari

Anàlisi de sentiment

L’anàlisi de sentiment és una tècnica de processament del llenguatge natural que detecta les emocions expressades en un text i el classifica com a positiu, negatiu o neutre. És útil en àrees com l’atenció al client, el monitoratge de xarxes socials i l’anàlisi d’opinions. Ajuda les empreses a comprendre les percepcions del públic.

Cognició artificial

La cognició artificial és una branca de la IA que vol limitar els processos mentals humans, com la percepció, la memòria, l’aprenentatge i la resolució de problemes. L’objectiu és crear màquines que puguin “pensar” i “aprendre” de manera similar als humans i ampliar així les capacitats dels sistemes intel·ligents.

Visió artificial

La visió artificial és una disciplina de la IA que permet als ordinadors veure i interpretar el món visual mitjançant càmeres i programari especialitzat. Es fa servir per a tasques com la identificació d’objectes, el reconeixement de patrons i l’anàlisi d’imatges, i és crucial en aplicacions com la conducció autònoma i la seguretat.

Regularització L1 i L2

La regularització L1 i L2 són tècniques utilitzades per evitar el sobreajustament en models d’aprenentatge automàtic. La regularització L1 afavoreix la simplicitat i reduint a zero alguns coeficients, mentre que la L2 penalitza els coeficients grans i fomenta models més simples i generalitzables.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.