Les 5 V impliquen tot un seguit de problemes ètics importants.¡

Ramon Alcoberro

Hi ha una gran quantitat de problemes ètics que es vinculen a temes de Big Data, no tan sols en l’àmbit dels drets dels consumidors, sinó també en relació als drets polítics i econòmics i a l’àmbit de la ciutadania. Temes com la creació de monopolis mitjançant algoritmes o la consolidació de biaixos racistes en els mitjans de comunicació (alguns dels quals han estat estudiats per Safiya Umoja Noble a Algorithms of Oppression: How Search Engines Reinforce Racism, 2019) tenen una gran incidència en la vida de tothom – i funcionen sense cap control públic.

a.- La protecció de dades: entenent per tal l’aplicació d’un principi de transparència, que sovint és difícil de garantir perquè els algoritmes (talment la fórmula de la Coca-Cola!) són secrets. La garantia de la confidencialitat és el nucli de la protecció de dades perquè sense confidencialitat no hi ha autonomia moral. Temes com la reputació i el dret a la vida privada són molt importants – tot i que en essencial les dades són anònimes, podem estigmatitzar col·lectius.

 El dret dels consumidors a veure les dades que les empreses han guardat sobre ells, a saber com hi ha accedit i a limitar o esborrar la informació recopilada és un tema del tot central en la gestió ètica del Big Data. Esborrar les dades personals quan no s’està còmode amb la forma en les fan servir les empreses (o amb la manera com creiem que les podrien fer servir), és central en el contracte teoria de les societats postindustrials.

b.- la racionalitat i les garanties en la planificació i l’ús dels algoritmes: la responsabilitat en l’execució dels algoritmes i, sobretot,  pel que fa a les conseqüències imprevistes (imprevisibles?) o indesitjables en l’ús i en el desplegament dels algoritmes posa molts problemes amb implicacions ètiques i polítiques – un dels quals i no menor és el de la discriminació. Cal saber qui controla les dades, qui hi pot accedir i de quina manera. És una exigència del principi de justícia i del de no maleficència.

c.- les pràctiques i la governança que deriva de l’ús de les dades: la por respecte a l’ús que és pugui fer del principi de no-maleficència i la indignació respecte a usos esbiaixats del principi de justícia. Si es té en compte que aquests algoritmes són sovint propietat privada i que s’usen molt particularment en temes de seguretat i ordre públic, el problema toca el nucli de les societats liberals al límit mateix de les societats de control. Cal saber qui s’aprofita de les nostres dades, com ho fa/com les tracta i qui li ha donat permís per fer-ho. El principi de beneficència i el de justícia/equitat han de guiar la governança també en els Big Data. Però, a més, és important que aquestes dades funcionin d’acord al que elles mateixes han previst i no condueixin a errors del que s’anomena “estupidesa artificial”, que és el que succeeix quan les dades són brutes o esbiaixades.

d.- la personalització de les dades: malgrat que en principi, les Big data són anònimes i no interessa per a res l’opinió d’una persona sinó la dels grans fluxos, dins els quals un sol individu és estadísticament irrellevant, cal assegurar que els grups més petits i fins i tot més estrafolaris tinguin garantit el respecte i l’anonimat i que, en cap cas, l’ús de les dades serveixi per tal d’estigmatitzar persones o opinions dissidents. Quin és el grau de transparència que hom pot acceptar?  Quina llibertat tenen les persones (o les institucions) davant els algoritmes? Que les dades siguin impersonals és una exigència derivada dels principi moral d’autonomia i de no maleficència, però el camp de problemes és extensíssim.

 Integrar des de bon començament les exigències relatives a la protecció de la vida privada i de les dades personals en el disseny dels algoritmes és una exigència moral de primer ordre. Cal que en l’àmbit dels algoritmes es treballi amb dos principis que s’anomenen privacy by design (protecció de la vida privada des del disseny mateix dels programes informàtics) i  privacy by default (protecció de la vida privada també en la gestió).

 L’anomització de les dades, és a dir, la destrucció dels vincles entre la informació i la identitat d’una persona, clarament no és suficient garantia ètica perquè no serveix a l’hora de defensar els drets dels col·lectius (minories nacionals o d’altra mena.

 

 

ÈTICA  BIG DATA, ALGORITMES I INTEL·LIGÈNCIA ARTFICIAL

© Ramon Alcoberro Pericay