Gran angular

Els robots podran estimar

D’un model inicial de sis emocions bàsiques, que data del 1971, la recerca es basa a hores d’ara en l’estudi de vint-i-sis categories afectives

Lite­ral­ment, això no serà pos­si­ble. Els robots no podran mai esti­mar, però sí que seran capaços d’inter­pre­tar les emo­ci­ons huma­nes, lle­gir els paràmetres que els faran detec­tar si la per­sona que tenen al davant està con­tenta, trista, té por o ànsia. No podran esti­mar, però sabran com expres­sar aquest sen­ti­ment. A hores d’ara, encara som lluny dels huma­noi­des que actu­a­ran emo­ci­o­nal­ment com a humans. Pri­mer hau­ran d’apren­dre a inter­pre­tar els sig­nes que evi­den­cien cada estat d’ànim i, molt després, se’ls indi­carà com s’han d’expres­sar ells matei­xos.

En tot cas, equips d’inves­ti­ga­dors estan fent les pri­me­res pas­ses en la com­pu­tació afec­tiva, l’àmbit tec­nològic que s’endinsa en aquesta enre­ves­sada xarxa que són les emo­ci­ons i que té com a missió tra­duir l’afec­ti­vi­tat en algo­rit­mes i ensi­nis­trar els robots en la seva iden­ti­fi­cació.

El CIDAI (Cen­tre of Inno­va­tion for Data Tech and Arti­fi­cial Inte­lli­gence), d’Eure­cat Cen­tre Tec­nològic de Cata­lu­nya, va orga­nit­zar una mas­ter­class a finals de gener, impar­tida per Àgata Lape­driza, pro­fes­sora de la UOC, direc­tora del grup de recerca Arti­fi­cial Inte­lli­gence for Human Well-being a l’eHe­alth Rese­arch Cen­ter de la UOC, i inves­ti­ga­dora afi­li­ada al Mas­sac­hu­setts Ins­ti­tute of Tech­no­logy (MIT) Medi­a­lab, al grup de recerca Afec­tive Com­pu­ting.

Lape­driza i l’equip amb què tre­ba­lla estu­dia i desen­vo­lupa sis­te­mes i dis­po­si­tius per reconèixer, inter­pre­tar i simu­lar les emo­ci­ons huma­nes. Expli­cava que avui dia ja hi ha dis­po­si­tius capaços de pro­ces­sar alguns senyals visu­als, de llen­guatge o de veu en situ­a­ci­ons molt con­cre­tes, però que el camí per fer és com­plex. “A la màquina li has de donar molts exem­ples perquè apren­gui a des­xi­frar una emoció, perquè la iden­ti­fi­qui com a feli­ci­tat, tris­tor, sor­presa, perill, dis­gust o por, que són les bàsiques i més comu­nes, però n’hi ha mol­tes més”, deia Lape­driza.

D’altra banda, afe­gia, “també s’ha de tenir en compte que la mateixa expressió en dife­rents con­tex­tos pot tenir sig­ni­fi­cats dife­rents”. Per tant, s’ha de far­cir la màquina de milers d’imat­ges i aju­dar-la a fer-ne cor­rec­ta­ment la inter­pre­tació.

A més dels senyals visu­als, també se l’ha d’ensi­nis­trar en el llen­guatge natu­ral, la veu, i els senyals fisiològics, perquè l’afec­ti­vi­tat humana uti­litza tots aquests camps per mos­trar-se. “Actu­al­ment, tenim més desen­vo­lu­pats els models per a text i imat­ges, i ja s’han pogut fer pro­ves amb robots i estu­di­ants perquè també hem d’esbri­nar quina és la per­cepció que té l’usu­ari d’aquesta interacció”, asse­nya­lava Lape­driza.

Que­den molts rep­tes per asso­lir, però la tec­no­lo­gia ja està posant les bases per fer pos­si­ble en un futur (llunyà) les interac­ci­ons soci­als dels robots amb les per­so­nes.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.