Aquesta pàgina requereix tenir activat el javascript per a funcionar correctament
Notícies

La flagrant vulneració dels drets humans mitjançant la biometria facial

12/06/2020
Per Ruth Sala Ordóñez. Advocada
La flagrant vulneració dels drets humans mitjançant la biometria facial

Des de què George Floyd va morir en mans d’un policia són moltes les empreses nord-americanes que tracten de donar resposta contra la violència policial i contra les onades de racisme que es produeixen per tot el país.

Aquesta setmana hem pogut llegir la notícia de què IBM abandonava la comercialització de la tecnologia d’Intel·ligència Artificial mitjançant biometria facial que ella mateixa havia creat. Alhora, Amazon va informar que prohibia a la policia que fes servir durant un any la seva aplicació Rekognition per considerar que es feia servir amb objectius poc ètics.

El més rellevant de la notícia ens situa en una interrelació de conceptes: el concepte de la IA, l’ètica de la seva programació, la protecció dels drets fonamentals dels ciutadans i la responsabilitat vers el seu ús.

Des d’un punt de vista estratègic, l’any 2016 es va publicar als Estats Units, sota la direcció de l’Administració Obama, per part del NSTC (Consell Nacional de Ciència i Tecnologia) un Pla Estratègic d’Investigació i Desenvolupament de la IA, actualitzat el 2019 i que centrava els esforços en les implicacions ètiques, legals i socials de la IA.

El mateix any, en paral·lel, es va materialitzar pel sector no governamental la fundació de l’Associació per la IA, que tenia com a membres fundadors Amazon, Facebook, Google, DeepMind, Microsoft, i IBM, i que compta avui dia amb més de 100 organitzacions. Aquesta associació te com a fonament sis pilars bàsics entre els que es troba la seguretat, la transparència, la responsabilitat i la minimització de l’impacte social i laboral de la IA, entre altres.

També, des d’un àmbit públic, l’OCDE (Organització per la Cooperació i el Desenvolupament Econòmic) de la que els Estats Units n’és membre des del 21 de abril de 1961, va aprovar el 22 de maig de 2019 un Acord sobre les directrius polítiques intergovernamentals sobre la IA. En podem destacar la publicació d’una sèrie de principis com la necessitat de què la IA hagi d’estar a disposició de les persones impulsant un creixement inclusiu, potenciant el desenvolupament sostenible i el benestar social. Es fa també especial referència a què el disseny de la IA ha de fonamentar-se en el respecte a l’estat de dret, els drets humans, els valors democràtics, la diversitat, i incorporar les salvaguardes necessàries per garantir una societat justa i equitativa.

A Europa es va publicar el 2019 l’Informe Europeu del Grup d’Experts d’Alt Nivell en IA, mitjançant el qual es van establir les pautes sobre els principis bàsics d’un desenvolupament en IA confiable i que passen per tenir en compte el respecte als drets fonamentals (respete a la dignitat, a la llibertat individual, a la democràcia, justícia, no discriminació, respecte als drets dels ciutadans, etc) i a principis ètics como el respecte a l’autonomia de l’ésser humà, la prevenció del dany, la justícia o equitat i la explicabilitat de les decisions algorítmiques. En el mateix sentit, el Llibre Blanc de la IA de la Comisió Europea, suposa un gran avanç en plantejar un projecte dirigit a l’obtenció de criteris uniformes per regular tant el disseny dels algorismes de la IA, com el tractament que aquests fan de les dades. De manera específica proposa la necessitat d’un tractament especial de les dades biomètriques obtingudes de manera remota, destancant-ne principalment la necessitat de proporcionalitat del mitjà utilitzat i el deure de tenir les garanties adequades. 

El ciutadà europeu és protegit, de manera específica, vers el tractament biomètric de dades pel Reglament Europeu de Tractament de Dades de 2016, ja que considera que estem davant d’un tractament de categoria especial de dades i que, per tant, requereix d’una especial atenció (art. 9 RGPD). Els tractaments biomètrics únicament són autoritzats per motius raonats d’interès públic i sempre sota la mirada del principi de proporcionalitat.

Respecte al vincle de l’ètica amb la IA, segons A. Mantelero (2020) no hi ha una ètica global que es pugui aplicar a tots els països. L’ètica mai no pot ser global, ja que correspon a un entorn, a una comunitat i per tant, és molt complicat que es pugui arribar, ni tan sols, a una ètica global europea. Catalunya va publicar la seva estratègia en IA el 25 d’abril de 2019, on es promou l’ús de la IA prioritzant l’ètica, l’eliminació de qualsevol tipus de discriminació i l’ús indegut que pogués produir-se sobre les dades o els mateixos algorismes.

Segons E. Golobardes (2020) l’algorisme és neutre. La màquina no és intel.ligent (J.Domingo, 2019) i tampoc no sap perquè ha decidit el que ha decidit. Intel.ligència vol dir entendre, i la màquina no entén. S’entrena amb dades històriques per ajustar els paràmetres dels algorismes de decisió. El problema està en les dades massives que s’hi introdueixen per entrenar-lo i en l’objectiu que es té de sortida.

És en aquest punt quan entrem en la dimensió de la responsabilitat sobre la IA i sobre la informació d’entrenament que se li dona a l’algorisme. Una de les possibilitats que es planteja amb el Llibre Blanc de la IA a Europa és la possibilitat d’habilitar procediments per auditar els algorismes i poder certificar que estan nets de biaixos. Segons R. López de Mántaras (2020) el ciutadà té dret a demanar explicacions amb la llei de protecció de dades europea i es pot qüestionar, fins i tot, quins han sigut els paràmetres per la presa d’una decisió automatitzada i no una altra; si les dades tenen biaixos la màquina aprèn malament. La Unió Europea té un projecte molt ambiciós que consisteix en introduir el concepte explicability (article 22 RGPD) per obtenir explicacions de com ha processat la màquina les dades per arribar a una conclusió determinada, el que, segons J. Domingo (20019) equival a protegir la democràcia.

En aquest sentit garantista, el grup d’investigació de Ciència de la Web i la Computació Social de la UPF juntament amb la Universitat Tècnica de Berlín i el Centre Tecnològic Eurecat, va crear un algorisme que detecta i mitiga biaixos d’altres algorismes. El sistema l’han anomenat FA*IR.67. Són eines com aquestes les que, atenent el cas que estem examinant, podrien ajudar a auditar una aplicació proporcional de la IA quant hi pot haver afectació dels drets fonamentals dels ciutadans, com és el cas de la captació de dades biomètriques de manera remota.

S’hauria d’insistir en la cadena de responsabilitats: sobre el disseny del  software, sobre la programació i inclús sobre el fabricant que fa servir un producte implementant aquest tipus de desenvolupaments i sobre la persona física o jurídica o administració que la fa servir en contra dels drets fonamentals dels seus ciutadans, com sembla que és el cas de la notícia analitzada.

En aquest cas concret dels Estats Units, ens trobem amb què: no hi ha regulació específica al respecte i que, el fet d’haver renunciat Amazon i IBM a l’us d’un producte, clarament sembla que reconeguin que vulnera els drets fonamentals dels ciutadans i que, a més, pot haver estat programat amb biaixos racistes. Afegint també que atempten contra la seva pròpia reputació en tant que són membres fundadors de l’Associació Partnership per un desenvolupament ètic de la IA.

Conclusió: Amazon i IBM han realitzat un acte de coherència, no només per les associacions a les que pertanyen sinó com a pols socio-polític a la preservació dels Drets Humans i la Democràcia. Seria desitjable que servís per evidenciar la necessitat de regulació de la IA dins d’un marc estricte de protecció dels drets individuals i col·lectius dels ciutadans, sota principis garantistes reals, tal i com s’està liderant des del continent europeu.

Contactes

    Mallorca, 283
    0837 Barcelona , Barcelona - España

    T. 93 496 18 80 - EXT. 5705 T. 93 601 12 12 E. digicab@icab.cat