Gran angular

Informació especial

Humanitzar la intel·ligència artificial

L’aplicació de la IA en la justícia hauria de ser sota la supervisió i el control humans

La justícia com a pilar de la nos­tra soci­e­tat no pot roman­dre ali­ena a l’arri­bada de la intel·ligència arti­fi­cial. La seva uti­li­tat és indis­cu­ti­ble, i això obre el debat quant a la seva apli­cació i la inter­venció del fac­tor humà. Vol­dria com­par­tir una sèrie de refle­xi­ons sobre la huma­nit­zació de la intel·ligència arti­fi­cial en la justícia, on s’esta­bleix un decàleg dels prin­ci­pis que en tot cas s’hau­rien de res­pec­tar en l’apli­cació de la IA en la justícia:

(1) Res­pecte a la dig­ni­tat humana: el sis­tema ha de per­me­tre la par­ti­ci­pació, la super­visió i el con­trol humans en tot moment.

(2) Con­trol per part de l’usu­ari del sis­tema de justícia: el jutge ha de poder revi­sar en tot moment la decisió judi­cial, i fins i tot ha de poder apar­tar-se del resul­tat del sis­tema d’IA en funció del cas con­cret.

(3) Res­pecte als drets fona­men­tals: no podem avançar tec­nològica­ment a còpia de retro­ce­dir en drets, prin­ci­pal­ment en pri­va­ci­tat i pro­tecció de dades.

(4) Res­pecte de les garan­ties del procés: dret a ser escol­tat, prin­cipi d’igual­tat d’armes, dret a un jutge com­pe­tent, inde­pen­dent i impar­cial.

(5) Garan­tia d’accés a la justícia: a per­so­nes vul­ne­ra­bles, i, sobre­tot, s’ha de superar l’ano­me­nada “bretxa digi­tal”.

(6) Res­pecte de la garan­tia juris­dic­ci­o­nal: en tot cas el jutge ha de garan­tir el com­pli­ment de la llei, però és fona­men­tal que ho faci des de la pers­pec­tiva del jutge “humà”, del jutge “per­sona”. El jutge ha de poder apar­tar-se del cri­teri o decisió de la IA en funció de les cir­cumstàncies con­cre­tes del cas.

(7) No dis­cri­mi­nació i pro­hi­bició de biai­xos; és a dir, de des­vi­a­ci­ons ina­de­qua­des en el procés d’inferència, el que també s’ha ano­me­nat “prin­cipi de no dis­cri­mi­nació algorítmica” en el dis­seny i/o imple­men­tació dels algo­rit­mes intel·ligents.

(8) Trans­parència: el dis­seny i apli­cació de solu­ci­ons d’IA ha de per­me­tre la seva expli­ca­bi­li­tat, traçabi­li­tat, iden­ti­fi­ca­bi­li­tat i accés a l’algo­ritme.

(9) Con­fiança: els algo­rit­mes han de ser sufi­ci­ent­ment segurs, fia­bles i sòlids, i les dades sobre les quals tre­ba­lli la IA han de ser sufi­ci­ents i tenir un nivell òptim de qua­li­tat.

(10) Res­pon­sa­bi­li­tat i ren­dició de comp­tes: és fona­men­tal que el sis­tema es pugui audi­tar, i si es dona aquest impacte nega­tiu (un error), ha d’haver-hi un meca­nisme de res­pon­sa­bi­li­tat.

Som encara als ini­cis del debat. No podem pres­cin­dir dels avan­tat­ges que en qua­li­tat i eficàcia poden apor­tar els sis­te­mes d’IA, però tam­poc podem assu­mir-los de manera indis­cri­mi­nada i acrítica, ja que cor­rem el risc de des­hu­ma­nit­zar la justícia.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.