Filosofia i Pensament Ramon Alcoberro amb la col·laboració de Júlia Torres i Canela

És possible un algoritme FAT (Fair-Accountable-Transparent)

Ramon Alcoberro

Existeix la justícia algorítmica? Es poden governar democràticament els algoritmes que escruten la vida dels individus i la gestió dels recursos? De debò no hi ha alternatives? La resposta més òbvia és que una puça no pot derrotar un exèrcit però que molts exèrcits han estat derrotats per plagues de sarna. Sempre hi ha hagut plagues de sarna o grips espanyoles quan alguna guerra durava massa. Però en aquest cas ni tan sols ha començat la guerra per la privacitat, perquè els individus no la valoren. O la confonen amb l’ús masturbatori del telèfon mòbil. Tampoc sembla que sigui possible repetir el gest de Thoreau i marxar als boscos de Walden –que de tota manera estaven a tocar de Concord. Convertir-se en un furtiu informàtic tancat en una borda a dalt del Pirineu resulta tant novel·lesc com inviable. Però és imprescindible una política de control i d’escrutini públic per evitar la dictadura tecnològica que molta gent no concep com a tal, sinó com una forma benèvola de garantir ja no la seguretat, sinó molt especialment el confort domèstic. Les tecnologies de control penetren en la nostra vida perquè les acceptem (és el cas de les cookies que hem d’acceptar per veure moltes webs) o sense que ni tan sols ens n’adonem. De fet, la majoria de la gent dona per fet que la pèrdua de la vida privada és inevitable i, a més, com que la gran majoria de la gent tampoc tenim generalment res a amagar no considerem que exposar-la sigui un preu excessiu.

     Qui tingués la gosadia de respondre amb un no radical a la invasió de la privacitat es pot complicar la vida. No acceptar que el banc gestioni els meus rebuts –i per tant, que tingui una fotografia exactíssima dels meus problemes econòmics o fins i tot vitals– significaria buscar-se problemes incomptables. Fins i tot fent bondat vostè pot buscar-se problemes amb el banc. De fet, algú pot ser perfectament solvent, però si un sistema de Big Data detecta que té molts amics insolvents a Facebook o a Instagram, s’ho passarà malament per aconseguir un crèdit. Cap legislació impedeix, de facto, que una companyia pugui obligar els seus clients a acceptar condicions d’ús que ens converteixen en microserfs. Net Thermostat és un sistema de gestió termostàtica de Google i si no accepteu que les vostres dades de consum domèstic siguin compartides, la companyia senzillament deixa de posar al dia l’aplicació. En conseqüència les canonades de casa seva es poden gelar, o les alarmes de la segona residència es poden disparar en mig del camp. La computació informàtica pot reemplaçar amb molta facilitat, i amb absoluta eficàcia, la deliberació democràtica.

     Els problemes ètics del Big Data es juguen d’una manera molt significativa en els principis de governança de les dades. En aquest sentit per considerar ètic un sistema de gestió de dades caldria disposar d’algoritmes FAT, (Fair-Acountables-Transparents), val a dir, que siguin justos/equitatius, responsables i transparents i cal dir que moltes empreses esmercen grans esforços en aquest àmbit no tan sols per una pruïja ètica sinó perquè és una exigència cada cop més sentida pels consumidors preocupats per la seva privacitat. Enunciar principis de transparència, justícia i equitat, no maleficència, responsabilitat i privadesa és, però, més senzill que desenvolupar-los.

És complicat demanar que un algoritme sigui just quan d’entrada pateix una sèrie de biaixos  establerts per motius de nivell, de vida, de preferències sexuals o d’ètnia. De fet, el biaix en les relacions humanes és inevitable (habitualment li donem el nom de prejudici) i no es gens clar com evitar-lo quan entrem, a més, en dimensions de yottabyts (1024) amb conseqüències molt més brutals de les que podria tenir escampar un simple rumor abans de l’època de les xarxes. Ara per ara, al màxim que es pot aspirar pel que fa a les dades personals és a què se les tracti amb equitat, a què no se les usi amb finalitats legítimes i a què s’esborrin al cap d’un cert temps si no resulten imprescindibles. Però és impossible posar límits clars i estrictes a tot plegat fins i tot per motius tècnics perquè, al cap i a la fi, respectar principis ètics també fa molt més complexa (i cara) la programació.

A la pràctica, els conflictes generats per la gestió de dades es gestionen bàsicament d’una manera intuïtiva i poc elegant que pren  els seus components bàsics d’una interpretació àmplia de la teoria de l’acció comunicativa de Habermas. És el que s’anomena el mètode d’anàlisi crítica del discurs (CDA, Critical Analysis Discourse) (Wendy Cukier et al., A critical analysis of media discourse on information technology: preliminary results of a proposed method for critical discourse analysis, publicat a Information Systems Journal, 2009), que està basat en quatre indicadors:

Comprensibilitat: que es pregunta si la comunicació és prou completa i intel·ligible per als diversos actors.

Veritat: que demana si els arguments i els procediments estan prou verificats per una prova i un raonament pertinent.

Sinceritat: que qüestiona si ha una adequació entre allò que l’individu o la corporació proclama i el que realment en fa amb les dades.

Legitimitat: que s’expressa en relació a la seva competència i la seva implicació en la millora dels procediments i dels interessos comunicatius globals.

Reivindicar una transparència absoluta de les dades és, estrictament, un miratge, i fins i tot en molts casos resulta molt mala idea, perquè donaria facilitats als hackers. Les xarxes i tot el conglomerat de Big Data estan dissenyats per a ser segures (i amb tot no poden evitar hackers, malwhere, etc.) i no per a protegir les llibertats personals. De la mateixa manera el disseny està fet per afavorir les corporacions i els seus interessos financers i no els ciutadans i els petits estalvis. En aquest sentit un programa habermasià  pot tenir interès en la mesura que reivindica un cert nivell d’imparcialitat en l’acció comunicativa i un reconeixement mutu d’interessos. Però, a la pràctica, l’anàlisi crítica del discurs es queda molt curta procedimentalment. Ni a la vida, ni a les empreses ni a la xarxa tots els actors tenen els mateixos drets d’agència. Tots els sistemes informàtics restringeixen al màxim l’accés, segons el principi de mínim privilegi (PoPL) i fan auditories de seguretat per assegurar-la. En les organitzacions i en les societats la transparència és una condició per a la creació de confiança i l’ètica de la AI hauria de crear el marc que la faci possible.

 

 

ÈTICA  BIG DATA, ALGORITMES I INTEL·LIGÈNCIA ARTFICIAL

© Ramon Alcoberro Pericay