Introducció: quin és el problema?

Ramon Alcoberro

Debatre els problemes ètics derivats de l’ús dels algoritmes, el Big Bata i la intel·ligència artificial (AI) resulta del tot impossible sense tenir algunes nocions bàsiques sobre matemàtiques i programació i, alhora, sense donar un cop d’ull a les condicions socials i polítiques que han convertit en rellevant aquesta qüestió. L’ètica de la AI és avui una branca de la tecnoètica, amb desenvolupaments que la situen molt més enllà del que eren els estudis clàssics sobre tecnologia i societat, que en general versaven sobre la humanització de la tecnologia. Nascuda l’endemà de la II Guerra mundial, la tecnoètica era bàsicament un producte de la reflexió filosòfica sobre la brutalitat de la bomba atòmica i sobre el domini de la tecnologia en tots els àmbits de la vida humana. En aquell context els primers esforços es dirigiren a “salvar” l’humanisme de les urpes del suposat o real totalitarisme tecnològic. Però algú va decretar que l’home era antiquat. Els seus productes el superaven àmpliament. La AI ha trabucat els termes i ara estem en un procés de tecnologització de la humanitat, perquè són els algoritmes, el Big Data i les màquines, els qui han pres el comandament i l’home hi compta poc o gens. No tan sols gestionen problemes complexos, redueixen o eliminen la incertesa  i orienten l’acció, sinó que modifiquen la psique humana. Qualsevol que hagi vist humans al carrer interactuant amb el seu telèfon mòbil és testimoni de com les màquines poden activar els centres de recompensa del cervell humà i transformar la conducta; però el procés no ha fet més que començar i l’aliança entre tecnologia i psicologia de l’atenció i de la conducta té encara molt camí a recórrer.

 L’ètica dels Big Data és una ètica aplicada i, més en concret, una de les branques de la Tecnoètica (o ètica de la tecnologia) que estudia els problemes derivats de la recollida, l’ús, la manipulació i la difusió a través de mitjans informàtics de grans quantitats de dades que són utilitzades després en la predictibilitat i la gestió de tota mena de problemes de les organitzacions, inclosos els que tenen conseqüències polítiques.

Les màquines trenquen els límits tradicionals de l’espai i el temps i plantegen el problema de com distribuirem el treball i la riquesa quan substitueixin els obrers i el de com evitaríem el col·lapse en el cas que fallessin. Ens obliguen a replantejar els biaixos racistes i sexistes. Ens situen davant el problema de com tenir identitat pròpia en un entorn on tot es virtual i ens qüestionen com mantindrem el control dels sistemes intel·ligents en mans humanes. En un article gairebé fundacional, (Critical questions for Big Data. Provocations for a cultural, technological and scholary phenomenon 2012),  Danah Boyd i Kate Crawford van comparar l’aparició del Big Data amb els canvis que el fordisme va provocar en les societats industrials. La tecnologia de dades ens obliga a replantejar la manera com construïm el coneixement, els processos de recerca, la nostra relació amb la informació, amb la naturalesa i la categorització mateixa de la realitat.

     El món de la AI està fet de dades, construeix models matemàtics i elabora prediccions. Les dades es converteixen en algoritmes (algoritme és un conjunt de regles operatòries l’aplicació de les quals permet resoldre un problema mitjançant un nombre finit d’operacions) que, al seu torn es concreten en programes i produeixen coneixement. I cada dia ens trobem que allò que pot fer una computadora (i que realment fa) ocupa més espai en les nostres vides. En la pràctica la AI actua com un mecanisme de control, alhora que facilita les nostres vides, i aquestes dues coses no resulten separables. Al nostre voltant, funcionen amb Big Data des de semàfors a monitors de freqüència cardíaca, rellotges intel·ligents i rutes d’avions. Fins i tot hi ha calçat amb GPS incorporat. Suposadament la AI ens ha de fer la vida més senzilla, però l’extensió  dels algoritmes –o potser la velocitat que han pres– està produint un augment de les diferències socials i culturals i, molt especialment, un creixement del malestar emocional a nivells impensats.

     Tots els processos tecnològics des de sempre han creat ansietat  i conflictes. No va ser gens fàcil durant la revolució industrial portar milions de persones del camp a la ciutat i tancar-los moltes hores en espais bruts i mal ventilats, pagant-los salaris molt escassos. Amb la AI està passant el mateix. No és tan sols que canvia la manera de treballar. El nostre entorn s’està constituint amb dades i algoritmes que no controlem. Ni entenem el seu funcionament ni les seves conseqüències, mentre tenim la sensació que se’ns escapen de les mans velles certeses. D’aquesta manera es creen pors i angoixes sovint poc justificades, sobre tot perquè la magnitud de les dades emboira el raonament. No és cap casualitat que la majoria de la reflexió que s’ha fet sobre la societat basada en la AI tingui un caire apocalíptic. El més gran recopilador de dades del sector privat, és Google, que segons els informes emmagatzema, a inicis de 2021, entre 10 i 15 exabytes de dades (un exabyte = mil milions de gigabytes. Es calcula que Facebook, que emmagatzema aproximadament 0,3 exabytes de dades en total, té 100 MB de dades i metadades per a cada usuari i així anem sumant. Si no volem que la IA ens porti a un món distòpic cal de manera urgent una regulació ètica sobre la qüestió. És una reflexió que no es pot deixar de banda perquè s’hi juguen els models socials i culturals que determinaran la vida els propers anys.

     És una mica tòpic debatre sobre discriminacions, pèrdua de llibertats i control polític a través dels ordinadors sense recordar que milions d’algoritmes ens faciliten la vida i que, de fet, els conceptes morals i polítics, com ara “llibertat”, no sempre han significat el mateix al llarg del temps. Molt possiblement en una societat regida per la AI aquestes grans paraules caldrà replantejar-les en un entorn que no és ja físic i immediat sinó construït i tecnològic. Fer culpables els ordinadors i els algoritmes de la crisi de les llibertats públiques (una crisi més hipotètica que real, cal dir-ho) és d’una ingenuïtat considerable. Un ordinador és tan sols una màquina que executa sense cap mena de crítica tasques que els humans els encarreguen mitjançant l’escriptura de línies de codi. Però la humanitat compta cada vegada menys en un entorn de dades. Les instruccions que donem a la màquina tenen un potencial social, polític i cultural incomparable que, de fet, els humans ja no controlen.

     Per dir-ho de pressa: els algoritmes ens permeten comprendre el món i canviar-lo. Segurament augmenten també la nostra capacitat cognitiva; però no ens permeten el domini d’aquests canvis. Per això cada vegada es fa més urgent una ètica del Big Data que problematitzi la qüestió del bé comú, de la llibertat personal, de la felicitat i de la justícia en l’entorn informacional. Cal pensar el Big Data perquè, al seu torn, són les dades les que ens pensen i determinen la nostra acció. Cada cop s’estén més la creença que les dades parlen per elles mateixes, sense cap necessitat d’una teoria al darrera, de manera que les teories (filosòfiques, polítiques) resulten ja poc significatives. Tot i que seria prudent no exagerar aquesta afirmació –i que, portat a l’extrem, la justificació del totalitarisme de les dades es vincula a la seva pretesa neutralitat–  és obvi que les qüestions de valors (morals) i les visions del món existeixen també en el món de les metadades però no de la mateixa manera que al món físic. La política i l’ètica pensada des de les dades agafen tot un altre sentit.

     El debat sobre si els ordinadors “pensen” es poc significatiu i es basa en una metàfora. La veritat és que els ordinadors no pensen, simplement calculen molt més ràpidament i de diferents maneres. Però la seva velocitat de càlcul és tan gran que en bona part s’ha modificat el que entenem per “pensar”, reduint-ho a calcular. Tota vida humana és una navegació en mig de la incertesa, però el que fa la intel·ligència artificial és disminuir la incertesa i l’ambigüitat de la vida –sovint fins anul·lar-la– a través de l’ús d’algoritmes que troben regularitats i pautes on la ment humana no arriba a copsar-ne. Això implica tota una revolució conceptual, i de les més importants en la història humana, perquè l’atzar, l’imprevist, la felicitat, la desgràcia, etc. (és a dir, els components de la llibertat individual) poden ser controlats, al menys en bona part, mitjançant el càlcul. El Big Data no és necessàriament democràtic.

     Com va dir Bruno Latour, si es canvien els instruments, canvia també tota la teoria que els acompanya. Això estrictament està passant ara mateix en la relació entre tecnologia informàtica i societat. Amb l’ús del codi es pot canviar el món, però, sobre tot, s’està canviant la manera de situar-nos-hi i d’entendre’l. L’ús d’eines de Big Data permet planificar la vida i detectar correlacions i fets que abans passaven desapercebuts. Podem preveure i actuar molt ràpidament i analitzar el fets amb molta més precisió. Podem classificar individus en base a correlacions originals. Podem gestionar/orientar la informació  i generar nous impactes econòmics... i inevitablement les dades es converteixen en valor, tant en el sentit econòmic (creen riquesa) com en el sentit moral (orienten l’acció). Són aquests els problemes que la filosofia haurà d’encarar per continuar essent significativa al món que ve, ple d’algoritmes i de científics de dades. En resum, la pregunta és com podem gestionar la intel·ligència artificial humanament. Aquest és el problema.

 

 

ÈTICA  BIG DATA, ALGORITMES I INTEL·LIGÈNCIA ARTFICIAL

© Ramon Alcoberro Pericay