Les lleis d’Asimov

Ramon Alcoberro

      No es pot descartar (més aviat al contrari!) que els robots siguin millors “raonadors morals” que els humans, ni que l’ús de la AI condueixi a una millor comprensió de la moralitat humana.  De fet, una potència de càlcul molt superior a la humana hauria de portar a una sofisticació molt superior del raonament també en l’àmbit de la moralitat. Per això cal desenvolupar les condicions d’agència d’aquests A.M.I. Resulta cada vegada més urgent respondre a temes on els interessos dels diversos actors (ciutadania, empreses, estats, etc..) estan clarament en conflicte. És central com ara la prevenció de danys provocats per algoritmes, biaixos de dades, criteris immorals de programació i desenvolupament de programes, mecanismes de captació de confiança pública.

     El pioner en l’intent de regular l’acció moral dels robots fou Isaac Asimov (1920-1992), a la seva novel·la Runaround (1942) que, per evitar situacions que evocaven Frankenstein (el monstre que assassinava el seu creador) va proposar "tres lleis de la robòtica"

Primera llei: un robot no pot ferir un ésser humà ni, per inacció, ni permetre que un ésser humà pugui fer mal.

Segona llei: un robot ha d’obeir les ordres que li donen els éssers humans, tret que aquestes ordres entrin en conflicte amb la primera llei.

Tercera llei: un robot ha de protegir la seva pròpia existència sempre que aquesta protecció no entri en conflicte amb la primera o la segona llei.

     Però ell mateix va mostrar en diversos relats com els conflictes entre aquestes tres lleis en dificulten l’ús, malgrat la seva organització jeràrquica. Asimov va crear més tard un personatge de ficció, un robot d’aspecte metàl·lic que va anomenar R. Giskard Reventlov, que tenia un amic androide, R. Daneel Olivaw, indistingible d’un ésser humà i a través d’aquests personatges proposà una anomenada “llei zero”, prèvia a aquestes tres, segons la qual: «Un robot no pot fer mal a la humanitat, ni amb la seva inacció, posar la humanitat en situació de perill». No fer mal té prevalença sempre sobre fer el bé.

Avui aquestes lleis haurien de recollir també l’aspecte de la explainability. James Bridle al seu llibre The New Dark Age: Technology and the end of the Future reclama un quart principi de la robòtica (que s’afegeixi als tres primers d’Asimov): «un robot —o qualsevol altra màquina intel·ligent— ha de ser capaç d’explicar-se als humans». El manteniment d’un control humà significatiu sobre els algoritmes és un dels temes centrals on es juga tota l’ètica del Big Data.

Temes com ara si els programes de AI haurien de portar incorporats sistemes per evitar cometre delictes, crear virus o introduir troians  i, sobre tot, l’ús militar dels algoritmes tenen implicacions respecte a les lleis d’Asimov. Però convé no oblidar que, ara com ara, la intel·ligència artificial i els algoritmes Big Data són grans negocis i el business té sovint una relació complexa amb la moralitat. Conceptualment, podria ser possible un robot que es programés amb prou capacitat  per a fer reflexió moral, però no per a actuar de forma conseqüentment moralment, de manera que un A.M.A. quedaria a un nivell moral gairebé insignificant, perquè obeiria però, coneixent el mal que pot produir a la humanitat, no podria impedir el mal que preveu.

 

ÈTICA  BIG DATA, ALGORITMES I INTEL·LIGÈNCIA ARTFICIAL

© Ramon Alcoberro Pericay