blogtecaolivelli

Una morale per le macchine


Fonte: Le Scienze
 L'editoriale del n.171 di Mind, in edicolail 27 febbraio 2019di Marco CattaneoEra il 1950 quando Isaac Asimov pubblicavauna raccolta dei suoi racconti di fantascienza.La intitolò Io, robot, e nel racconto Essere razionale comparivano per la prima volta informa compiuta le tre leggi della robotica.Aveva iniziato a elaborarle negli anniquaranta, e alla fine, nella loro versioneoriginale, suonavano così:1) un robot non può recare danno aun essere umano né può permettereche, a causa del proprio mancato intervento,un essere umano subisca un danno;2) un robot deve obbedire agli ordiniimpartiti dagli esseri umani, purchéquesti ordini non contravvengano allaprima legge;3) un robot deve proteggere la propriaesistenza, purché questa autodifesanon contrasti con la prima o con la secondalegge.Per quanto affascinanti, le tre leggi diAsimov sono un tantino ingenue, operlomeno semplicistiche.La nostra etica è indubbiamente governatada principi più complessi e flessibili.Ma d'altra parte quando Asimov scriveva lesue leggi l'informatica stava muovendo iprimi passi, i computer erano giganteschimacchinari che occupavano intere stanze el'intelligenza artificiale non era ancora statainventata, almeno come espressione.Fu coniata nel 1956, da John McCarthy, nelconvegno del Dartmouth College che vieneconsiderato l'atto di fondazione di questanuova scienza.A settant'anni di distanza da quelle primitiveregole, però, è ora di fare sul serio.Perché - come dice Pedro Domingos, citatoda Stefania De Vito a p. 92 - siamo preoccupatiche i computer possano diventare tantointelligenti da conquistare il mondo, «ma ilproblema vero è che i computer sono ancoratroppo stupidi, e hanno già conquistato il mondo».Abbiamo computer dappertutto, e le applica-zioni di intelligenza artificiale stanno diventandopervasive. Ma robot e computer prendono ledecisioni sulla base delle informazioni cheapprendono, perciò i dati con cui sono alimentatisono importanti almeno quanto gli algoritmi.E i dati che vengono forniti alle macchinepartendo dai grandi numeri della rete e deisocial network risentono degli stessi pregiudizi,delle stesse distorsioni, degli stessi stereotipidiffusi tra gli esseri umani.Lo hanno sperimentato colossi del digitalecome Google e Amazon, rilevando che lebanche dati tendono a sovrarappresentareindividui bianchi e di sesso maschile.E chi l'avrebbe mai detto...Quanto sia complicato istruire un computera prendere decisioni lo si capisce, per esempio,quando si pensa all'introduzione sul mercatodelle auto a guida autonoma.E a quei test in cui si chiede alle persone discegliere chi «sacrificare» in caso di incidente inevitabile. Tra i molti esperimenti condotti inquesto campo, De Vito ne ricorda unoilluminante, pubblicato su «Science» nel 2016. Ai partecipanti si chiedeva se, in vista di unincidente imminente, l'auto dovesse proseguiree investire numerose persone o sterzare,andando contro un muro e sacrificando il passeggero.La risposta, nella maggior parte dei casi,era scontata:un'auto dovrebbe salvaguardare il maggiornumero di vite umane possibile, e dunqueuccidere il passeggero. Ma c'è un problema.Probabilmente nessuno acquisterebbeun'automobile programmata per ucciderlo,nemmeno sapendo che si tratta diun'eventualità rarissima.Nel bene e nel male, la nostra morale si èevoluta per decine di migliaia di anni conil mutare del tessuto sociale, e tuttaviarimane incerta, fluida, contraddittoria.Quanto siamo sicuri di affidare a una macchinaquestioni di vita o di morte?