Filosofia i Pensament Ramon Alcoberro amb la col·laboració de Júlia Torres i Canela

Té sentit el concepte de “dades personals” en el context de Big Data?

Ramon Alcoberro

Un dels problemes ètics més significatius és el que té a veure amb la desproporció entre el poder de Gafam i el poder de la gent. Si Gafam fabrica robots infinitament més intel·ligents que nosaltres, allarga la nostra vida, augmenta les nostres capacitats mentals, seqüencia el nostre ADN, ens porta a Mart i, fins i tot, escalfa l’aigua de casa nostra o ens mena l’automòbil, llavors posseeix un poder immens. Ciutadans i fins i tot Estats no tenen pràcticament cap eina per tal d’oposar-se al nou monstre que, per si fos poc, no té una estructura política d’Estat i és de propietat privada. El monstre Gafam contra el petit Polzet ciutadà (petit però eixerit!) és un conte molt senzill d’explicar però que cal matisar molt perquè algunes explicacions que se’n donen correspon a la ficció en la seva branca més conspirativa. En primer lloc, a Gafam no li interessen els individus particulars i el concepte mateix de “dades personals” té molt poc sentit en un context de “dades massives”. Gafam no ens vol com a persones reals sinó com a usuaris/consumidors en vistes a un ús/consum potencial

 L’error més obvi en el debat sobre les dades i la seva propietat és una confusió molt sovintejada, però de conseqüències fatals: no són el mateix les “dades” (anomitzades) que les dades personals. Les dades tenen un gran valor, no tan sols monetari, per cert; però en elles mateixes no pertanyen a ningú o són de l’empresa que les ha recollides. En canvi. les dades personals són propietat de cadascú però  no tenen cap especial importància en un algoritme que recull milions d’informacions. Hi ha un acord forca generalitzat al voltant del dret de cadascú a les seves dades personals. Se suposa que dades privades obtingudes d'una persona amb el seu consentiment no han de ser exposades per al seu ús per altres empreses o individus amb cap rastre que permeti deduir la seva identitat personal. Aquesta regla en general es compleix estrictament per part dels programadors informàtics... però no serveix pràcticament de res.

 El que dona valor a les dades són les correlacions, molt sovint insospitades, que permeten fer, i no (o no tant) les identitats que permeten fixar. Les dades es manipulen sense noms propis i valen com a fluxos, més que com a designant d’identitats estàtiques. Com a tals nodreixen models construïts per intel·ligències artificials. És en tant que membres d’un grup que reuneix ics característiques (i no per la nostra identitat personal) que rebem intrusions en la nostra vida privada. No ens vigila ningú personalment perquè, senzillament, no cal.

 La idea segons la qual vivim en una presó construïda amb Big Data (i per al nostre bé) és una mica ingènua. El problema és més inquietant: al Big Brother no li surt a compte vigilar-nos individualment, de la mateixa manera que un pastor no es preocupa per una ovella, sinó per un ramat. Òbviament la xarxa és un sistema de control, però no està dissenyada per al control dels individus en tant que tals, sinó per a la gestió de grans fluxos de dades . El sistema no et mira mai com a persona individual. Tot allò que no consumeix o no pot ser adreçat a produir o a consumir, simplement no resulta útil per a Gafam. Si les vides privades no són “consumibles” no interessen. D’altra banda cada traça que deixem en les xarxes produeix una informació i, per tant, és una dada explotable. El problema del control es fa més greu perquè el Big Data implica que totes les dades recollides són conservades i potencialment reutilitzades sense que es demani a la gent si donen el seu consentiment per a noves utilitzacions.

 En teoria els individus són propietaris de les seves dades i aquests haurien de ser administrades sota principis de transparència, consentiment confidencialitat. Però aquests principis no tan sols són moralment ingenus. Simplement són socialment inaplicables i purament retòrics perquè hi ha infinites maneres d’anular-los a través d’algoritmes que cada vegada se sofistiquen més. En el context de Big Data, “privacitat” significa la capacitat de gestionar el flux d'informació confidencial, sabent que per molt que s’encripti, per molt que s’usi Ubiquitous Commons o programes similars, fàcilment pot acabar essent analitzada per tercers. Ningú individualment no té a l’abast cap eina que permeti la verificabilitat de les seves dades personals que circulen per les xarxes i que s’emmagatzemen als servidors. No hi ha drets individuals en el món del Big Data perquè no hi ha manera d’exercir-los autònomament i perquè depenen de la benevolència dels programadors i del nivell de paternalisme que a cada moment convingui a Gafam. A més, com a tals ningú pot fer gran cosa amb les seves dades personals. Dit “a palo seco” això pot resultar molt radical, però les coses són com són i no com ens agradarien. Rectificar les dades o oposar-se a què siguin tractades d’una determinada manera és en teoria possible, i aquest fins i tot està reconegut jurídicament a la Unió Europea i en molts altres països, però que la pràctica resulta tan difícil per raons de la mateixa estructura de les xarxes que es fa impossible.

L’any 1999, quan Internet estava encara a les beceroles, un jurista nord-americà, Lawrence Lessing, va publicar una obra precursora, Codis i altres lleis del ciberespai, on es troba la famosa fórmula “code is law”, que significa exactament el que diu: el codi informàtic té força de llei. El codi és, en última instància l’arquitectura de la xarxa. Tot el que no està al codi no pot fer-se... i l’autonomia personal no està al codi. El món dels ordinadors no és, de cap manera, un espai sense lleis, però en les seves lleis l’autonomia dels individus no es contempla. Simple i clar: les normes que regeixen al món digital no són les del món humà. D’una concepció del món basada en els humans s’ha passat a una altra basada en la dependència tecnològica, l’acceleració i la instantaneïtat. En la governança dels algoritmes potser hem confós progrés amb innovació, però aquesta confusió té resultats irreversibles.

En un món d’ordinadors i algoritmes, l’anonimat, com l’autonomia personal, és una trista ficció. Un impossible per la mateixa estructura de les xarxes. N’hi ha pou amb considerar com tothom està localitzat a través dels smartphones que porta a la butxaca. Avisos llargs i densos sobre privadesa són inútils quan el criteri de privadesa no entra en el disseny. Fins i tot, supervisar els permisos de les aplicacions o suprimir les etiquetes de geolocalització no és gaire difícil, però no està a l’abast de les habilitats de molta gent.  I a nivell de drets públics la protecció jurídica del tractament de dades un engany, perquè els mateixos polítics que ho regulen no fan altra cosa que seguir les indicacions que els donen grups d’investigadors “independents” que treballen en organismes subvencionats per Gafam. El que se’ns ofereix, per comptes d’autonomia i de dret a decidir, és paternalisme més o menys suau, amanit declaracions de bona voluntat que ningú no té capacitat per a comprovar. “A la xarxa sempre coneixem això millor que tu, però no et preocupis que no et farem mal”. El paternalisme suau  dona la impressió que els poderosos “tenen cura” dels pobres i dels mancats, però des de Kant se sap que és una de les variants del despotisme perquè impedeix que cadascú prengui decisions lliures i informades sobre el que l’afecta.

 Tant li fa que si existeix la Resolució 68/167 (2013) de la ONU sobre el dret a la privacitat en l’era digital que, “reconeixent la naturalesa global i oberta d’Internet” (...) exhorta els estats per tal d’examinar els seus procediments, pràctiques i legislació i demana la supervisió independent i efectiva de la transparència de les dades. El fet real és que les xarxes estan cada vegada en mans de menys corporacions i els governs no poden fer res al davant Gafam, a qui sovint deuen el seu poder. Posar a cada centre de treball un responsable del tractament de dades encarregar-li la gestió i el control ètic dels continguts és com buidar el mar amb una galleda.  En paral·lel, la immensa majoria de la gent no té cap interès en temes de seguretat informàtica i no els importa defensar la seva privacitat perquè no la valoren. En la mesura que una de les funcions de la AI és preveure els gustos i les necessitats de la gent per tal d’anticipar-s’hi, sembla difícil que hi hagi grans moviments en defensa de la privacitat. Fins i tot si sabem perfectament que Facebook o Twitter s’estan venent les nostres dades (o, per ser més exactes, les lloguen), no deixem d’utilitzar aquestes xarxes.

El problema moralment més significatiu no és tant si la xarxa ens vigila sinó –i això és molt més greu!– si som nosaltres mateixos els qui ens autocensurem per tal de no ser detectats i/o reprimits i/ o tractats com a dissidents o com a homenets lambda. A mesura que els algoritmes coneixen cada cop millor els nostres gustos i els nostres interessos també som nosaltres els que ens adeqüem a ells i cada vegada acceptem més les propostes de compra que ens fan o els “amics” que ens proposen seguir en xarxes socials. Ens comportem com s’espera que ho faríem no només per no quedar com uns marginals, sinó perquè l’algoritme ens promet simplificar-nos la vida i ho fa, a més, d’una forma plaent. El que en principi era simulació esdevé ben real. Això té conseqüències devastadores per a la llibertat humana. L’autocensura que evita l’acció per por a l’assetjament (un fet que en xarxes socials resulta molt més insidiós que en la vida real) és molt més perillosa per a l’autonomia moral que la repressió. Quan hom sap que tot allò que diu, escriu, fa, consumeix o recolza queda registrat a la xarxa, la temptació de callar i de prescindir “voluntàriament” de la pròpia autonomia és molt més poderosa que l’acció de cap policia. Les xarxes socials, en particular, creen dependència emocional perquè es basen en rebre “likes” de gent que molt majoritàriament no coneixem tot i que Facebook en digui “amics” – i caldria recordar que “amic de Facebook” i “amic” no són conceptes que tinguin una especial relació.

 La dependència emocional és un element a tenir molt en compte perquè obliga a una reconsideració sobre el concepte de “vida privada” i/o de “consciència” que la vida en temps dels Big Data haurà de prendre’s molt seriosament. Provenim d’una cultura que atorgava un gran valor a la “consciència” i a la vida interior dels individus. “Vida privada” i “consciència” eren santuaris, espais de subjectivitat inviolables, que  en l’època de les xarxes ho estan deixant de ser. L’exhibició impúdica de la vida privada, convertida en negoci, és la base dels Facebook, Instagram o Twitter. Però entrar en aquest àmbit significa capgirar una tradició moral cultural molt arrelada en la tradició occidental. Viure i actuar “en consciència” era l’ideal de conducta moral d’un humà com cal. Tant l’ètica kantiana com la religió catòlica, amb els capellans dedicats a la confessió es fonamentaven en l’existència la consciència moral interior, una mena de santuari inviolable on s’establia la lluita entre el Bé i el Mal. Però des d’un punt de vista de Big Data la consciència personal no importa. Importen els grans conjunts, que són els models d’actuació i això sempre resulta problemàtic en relació amb les minories i els drets personals. Quan s’aplica la qüestió dels Big Data a temes com ara les relacions sexuals i emocionals és molt difícil pensar que els criteris de cerca no acabin tenint unes conseqüències personals que poden resultar molt limitadores de l’autonomia. La presó perfecta es pot construir ara mateix amb algoritmes mentre els individus creuen ser lliures...

 

 

 

ÈTICA  BIG DATA, ALGORITMES I INTEL·LIGÈNCIA ARTFICIAL

© Ramon Alcoberro Pericay