blogtecaolivelli
blog informazione e cultura della biblioteca Olivelli
TAG
TAG
« Il batterio dell'ulcera... | Università Milano Bicocc... » |
Possiamo aprire la scatola nera dell'intelligenza artificiale?
Post n°2133 pubblicato il 23 Aprile 2019 da blogtecaolivelli
fonte: Le Scienze 22 ottobre 2016 Possiamo aprire la scatola nera dell'intelligenza artificiale? L'intelligenza artificiale è ormai dappertutto, grazie al dilagare delle macchine che sfruttano le capacità di apprendimento profondo. Ma prima che gli scienziati possano fidarsene tanto da usarle nelle loro ricerche, devono comprendere in che modo imparano, ed è un compito tutt'altro che semplicedi Davide Castelvecchi/Nature computer scienceapprendimentointelligenza artificiale Dean Pomerleau ricorda ancora il suo primo braccio di ferro con il problema della scatola nera. L'anno era il 1991 ed era impegnato in un pionieristico tentativo di raggiungere un risultato che oggi è comune nella ricerca sui veicoli a guida autonoma: insegnare a un computer come guidare. Humvee appositamente modificato attraverso strade urbane, ricorda Pomerleau, che allora era uno specializzando di r obotica alla Carnegie Mellon University di Pittsburgh, in Pennsylvania. Con lui nell'Humvee c'era un computer che aveva programmato per guardare attraverso una telecamera, interpretare ciò che stava accadendo sulla strada e memorizzare ogni sua (di Pomerleau) azione di risposta. Alla fine, sperava Pomerleau, la macchina avrebbe avuto a disposizione un numero di associazioni sufficiente per guidare da sola. In ogni viaggio, Pomerleau addestrava il sistema per qualche minuto, per poi lasciarlo andare a se stesso. Tutto sembrava andare bene, finché un giorno l'Humvee, avvicinandosi a un ponte, improvvisamente deviò da un lato. Pomerleau evitò l'incidente solo afferrando velocemente il volanre e riprendendo il controllo.
sbagliato il computer. "Una parte della mia tesi è consistita nell'aprire la scatola nera e capire che cosa stava 'pensando' ". Ma come? Aveva programmato il computer per agire come una rete neurale - un tipo di intelligenza artificiale (IA) ispirata al cervello che prometteva di funzionare meglio degli algoritmi standard nel gestire le situazioni complesse del mondo reale. Invece di memorizzare ciò che hanno appreso in un blocco ordinato di memoria digitale, distribuiscono le informazioni in un modo molto difficile da decifrare. Pomerleau riuscì ad afferrare il problema solo dopo un gran numero di test sulle risposte del software a vari stimoli visivi: la rete stava usando i margini erbosi della strada come indizio per la direzione da seguire, per cui l'aspetto del ponte l'aveva confusa. sempre più difficile e più urgente. La tecnologia è esplosa sia in complessità che in numero di applicazioni. Pomerleau, che ora insegna robotica alla Carnegie Mellon, descrive il suo piccolo sistema sull'Humvee come "una versione povera" delle enormi reti neurali che vengono usate per le macchine di oggi. addestrate su enormi archivi di dati, hanno applicazioni commerciali che vanno dalle automobili a guida autonoma ai siti Internet che consigliano prodotti in base alla storia di navigazione di un utente. anche in ambito scientifico. I futuri osservatori radioastronomici ne avranno bisogno per t rovare segnali utili nella mole altrimenti ingestibile dei loro dati; i rivelatori di onde gravitazionali lo useranno per identificare ed eliminare le più piccole fonti di rumore; e gli editori lo useranno per setacciare e "taggare" milioni di articoli e libri scientifici. apprendimento profondo potranno anche manifestare immaginazione e creatività. "Butteremo dei dati in pasto alla macchina, e quella restituirà leggi di natura", dice Jean-Roch Vlimant, fisico al California Institute of Technology a Pasadena. ancora più acuto. Come fa la macchina a trovare i segnali utili, per esempio? E come si può essere sicuri che non sbagli? Fino a che punto dovremmo essere disposti a fidarci dell'apprendimento profondo? "Penso che stiamo sicuramente perdendo terreno rispetto a questi algoritmi", dice Hod Lipson, esperto di robotica alla Columbia University a New York City. Egli paragona la situazione all'incontro con una specie aliena intelligente i cui occhi hanno recettori non solo per i colori primari - rosso, verde e blu - ma anche per un quarto colore. Sarebbe molto difficile per gli esseri umani capire come vede il mondo l'alieno, e per lui spiegarlo a noi. I computer avranno difficoltà analoghe nello spiegaci le cose a noi, dice Lipson. "In un certo senso, è come spiegare Shakespeare a un cane." stanno rispondendo proprio come Pomerleau: aprendo la scatola nera e facendo l'equivalente di ciò che fanno le neuroscienze. Le risposte non sono però una vera comprensione, dice Vincenzo Innocente, fisico del CERN, il laboratorio che ha aperto la strada all'applicazione dell'IA nella fisica delle particelle. "Come scienziato - dice - non mi basta saper distinguere i gatti dai cani. Uno scienziato vuole essere in grado di dire: 'la differenza è in questo e in questo". |
AREA PERSONALE
MENU
CHI PUŅ SCRIVERE SUL BLOG
I messaggi e i commenti sono moderati dall'autore del blog, verranno verificati e pubblicati a sua discrezione.