blogtecaolivelli
blog informazione e cultura della biblioteca Olivelli
TAG
TAG
« Nella mente di un verme ... | Dal canto dei criceti al... » |
Post n°2049 pubblicato il 28 Marzo 2019 da blogtecaolivelli
Fonte: Le Scienze
L'editoriale del n.171 di Mind, in edicola il 27 febbraio 2019di Marco Cattaneo Era il 1950 quando Isaac Asimov pubblicava una raccolta dei suoi racconti di fantascienza. La intitolò Io, robot, e nel racconto Essere razionale comparivano per la prima volta in forma compiuta le tre leggi della robotica. quaranta, e alla fine, nella loro versione originale, suonavano così: 1) un robot non può recare danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano subisca un danno; 2) un robot deve obbedire agli ordini impartiti dagli esseri umani, purché questi ordini non contravvengano alla prima legge; 3) un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la prima o con la seconda legge. Asimov sono un tantino ingenue, o perlomeno semplicistiche. La nostra etica è indubbiamente governata da principi più complessi e flessibili. Ma d'altra parte quando Asimov scriveva le sue leggi l'informatica stava muovendo i primi passi, i computer erano giganteschi macchinari che occupavano intere stanze e l'intelligenza artificiale non era ancora stata inventata, almeno come espressione. Fu coniata nel 1956, da John McCarthy, nel convegno del Dartmouth College che viene considerato l'atto di fondazione di questa nuova scienza. regole, però, è ora di fare sul serio. Perché - come dice Pedro Domingos, citato da Stefania De Vito a p. 92 - siamo preoccupati che i computer possano diventare tanto intelligenti da conquistare il mondo, «ma il problema vero è che i computer sono ancora troppo stupidi, e hanno già conquistato il mondo». zioni di intelligenza artificiale stanno diventando pervasive. Ma robot e computer prendono le decisioni sulla base delle informazioni che apprendono, perciò i dati con cui sono alimentati sono importanti almeno quanto gli algoritmi. E i dati che vengono forniti alle macchine partendo dai grandi numeri della rete e dei social network risentono degli stessi pregiudizi, delle stesse distorsioni, degli stessi stereotipi diffusi tra gli esseri umani. Lo hanno sperimentato colossi del digitale come Google e Amazon, rilevando che le banche dati tendono a sovrarappresentare individui bianchi e di sesso maschile. E chi l'avrebbe mai detto... a prendere decisioni lo si capisce, per esempio, quando si pensa all'introduzione sul mercato delle auto a guida autonoma. E a quei test in cui si chiede alle persone di scegliere chi «sacrificare» in caso di incidente i nevitabile. Tra i molti esperimenti condotti in questo campo, De Vito ne ricorda uno illuminante, pubblicato su «Science» nel 2016. incidente imminente, l'auto dovesse proseguire e investire numerose persone o sterzare, andando contro un muro e sacrificando il passeggero. La risposta, nella maggior parte dei casi, era scontata: un'auto dovrebbe salvaguardare il maggior numero di vite umane possibile, e dunque uccidere il passeggero. Ma c'è un problema. Probabilmente nessuno acquisterebbe un'automobile programmata per ucciderlo, nemmeno sapendo che si tratta di un'eventualità rarissima. evoluta per decine di migliaia di anni con il mutare del tessuto sociale, e tuttavia rimane incerta, fluida, contraddittoria. Quanto siamo sicuri di affidare a una macchina questioni di vita o di morte? |
https://blog.libero.it/blogtecaolivelli/trackback.php?msg=14405174
I blog che hanno inviato un Trackback a questo messaggio:
AREA PERSONALE
MENU
CHI PUņ SCRIVERE SUL BLOG
I messaggi e i commenti sono moderati dall'autore del blog, verranno verificati e pubblicati a sua discrezione.