Creato da cannibale3 il 26/11/2006

POST IT

Messaggi in foglietti sparsi, appunti di attualità, economia, politica, momenti di vita, di uno staff di Bloggers

 

AREA PERSONALE

 

REDAZIONE

CANNIBALE3   (Direttore - Tuttologo)

KIORPHE (Vice - Sport)

FRESBE (Economia)

FLOGEN66 (Varie ed eventuali)

 

 

immagine
My blog is worth $ 35,903.56.
How much is your blog worth?

immagine

 
RSS (Really simple syndication) Feed Atom
 

 

« LA MACCHINA SENZIENTEIL VIAGGIO »

DOPO 75 ANNI: LE TRE LEGGI DELLA ROBOTICA

Post n°1171 pubblicato il 19 Marzo 2017 da cannibale3
 

Quando l’autore di fantascienza e scienziato Isaac Asimov, ideò le tre leggi della robotica, immaginò l’esistenza futura di androidi umani senzienti, inseriti in un mondo nel quale questi robot, sarebbero stati al servizio dei loro “proprietari” necessitando quindi di una serie di regole di programmazione per impedire loro di nuocere. L’evoluzione delle scienze collegate alla robotica, hanno prodotto dei settantacinque anni successivi, una vasta gamma di dispositivi, elettrodomestici per la casa (domotica), droni militari offensivi o di controllo ed intere linee di produzione in fabbrica. Allo stesso tempo, l'intelligenza artificiale ad apprendimento automatico, influenza gran parte del software che gestisce l’hardware. 
Le tre leggi di Asimov sono ancora citate come modello guida nel rapporto uomo/macchina e sono le seguenti:
1. Un robot non può danneggiare un essere umano o, attraverso l'inazione, permettere un essere umano riceva danno
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini non contravvengano alla Prima Legge
3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con le leggi primo o secondo
Come accennato, uno dei problemi evidenti è che i robot di oggi sembrano essere molto più limitati rispetto a quelli descritti nelle storie di Asimov, tanto da dover considerare non necessarie le regole citate. È infatti difficile concepire un robot aspirapolvere che abbia la capacità di danneggiare gli esseri umani o anche di non rispettare la sua programmazione. Altro sono i robot progettati per combattimenti militari, gestibili in remoto con scopi di spionaggio/attacco. In questa situazione, il rispetto della Prima Legge – non ledere gli esseri umani - diventa estremamente complicato. Il ruolo dei militari è spesso quello di salvare la vita dei soldati e civili, spesso danneggiando i nemici sul campo di battaglia. Così potrebbe essere necessario considerare da diversi punti di vista le interpretazioni delle tre leggi.
Il problema principale sta nella definizione di cosa sia un Robot. Viene immaginato come un androide con sembianze umane, programmato per essere al servizio dell’uomo ed utilizzato per limitate funzioni. Si ipotizzo la possibilità che la macchina potesse auto-aggiornarsi, imparando alla ricerca di una coscienza che lo rendesse senziente.
Mentre la ricerca spinge i confini della tecnologia, ci sono rami della robotica indirizzati verso i dispositivi molecolari.
Ad esempio, "robot" a base di DNA e proteine, potrebbero essere utilizzati in chirurgia per correggere disturbi genetici. In teoria, questi dispositivi dovrebbero davvero seguire le leggi di Asimov, seguendo gli ordini trasmessi tramite il DNA, che avrebbero essenzialmente dovuto diventare parte integrante dell'essere umano su cui stavano operando. 
Tale integrazione potrebbe quindi rendere difficile determinare se il robot sia abbastanza indipendente a dover essere controllato dalle leggi o operare al di fuori di esse. A livello pratico il robot sarebbe nell'impossibilità di determinare se gli ordini che ha ricevuto potrebbe causare danni al essere umano.
L'altro grande problema con le leggi è che avremmo bisogno di un progresso significativo della Intelligenza Artificiale dei robot per essere effettivamente in grado di giungere all’autogestione. L'obiettivo della ricerca AI è talvolta descritto come una macchine in grado di apprendere, di pensare e agire razionalmente come un essere umano. Con questa programmazione, il robot potrebbe operare solo all'interno di una sfera molto limitata e qualsiasi applicazione razionale delle tre leggi, sarebbe inutile. In considerazione di queste problematiche, le leggi di Asimov offrono poco più dei principi fondanti per chi voglia impegnarsi bel definire un “nuovo codice etico robotico”. 
di Mark Robert Anderson, Professore di Informatica e Sistemi Informativi, presso l’Università Edge Hill (tradotto modificato e reso fruibile in italiano corrente, dall’autore del blog)

Commenti al Post:
Nessun commento
 

CERCA IN QUESTO BLOG

  Trova
 

ARCHIVIO MESSAGGI

 
 << Ottobre 2024 >> 
 
LuMaMeGiVeSaDo
 
  1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31      
 
 
Citazioni nei Blog Amici: 8
 
 
 

© Italiaonline S.p.A. 2024Direzione e coordinamento di Libero Acquisition S.á r.l.P. IVA 03970540963