blogtecaolivelli

Possiamo aprire la scatola nera dell'intelligenza artificiale?


fonte: Le Scienze22 ottobre 2016Possiamo aprire la scatola nera dell'intelligenza artificiale?
L'intelligenza artificiale è ormai dappertutto, grazie al dilagare delle macchine che sfruttano le capacità di apprendimento profondo. Ma prima che gli scienziati possano fidarsene tanto da usarle nelle loro ricerche, devono comprendere in che modo imparano, ed è un compito tutt'altro che semplicedi Davide Castelvecchi/Naturecomputer scienceapprendimentointelligenza artificialeDean Pomerleau ricorda ancora il suo primo braccio di ferro con il problema della scatola nera. L'anno era il 1991 ed era impegnato in un pionieristico tentativo di raggiungere un risultato che oggi è comune nella ricerca sui veicoli a guida autonoma: insegnare a un computer come guidare.Il progetto consisteva nel guidare un veicolo militare Humvee appositamente modificato attraverso strade urbane, ricorda Pomerleau, che allora era uno specializzando di robotica alla Carnegie Mellon University di Pittsburgh, in Pennsylvania. Con lui nell'Humvee c'era un computer che aveva programmato per guardare attraverso una telecamera, interpretare ciò che stava accadendo sulla strada e memorizzare ogni sua (di Pomerleau) azione di  risposta. Alla fine, sperava Pomerleau, la macchina avrebbe avuto a disposizione un numero di associazioni sufficiente per guidare da sola.
In ogni viaggio, Pomerleau addestrava il sistema per qualche minuto, per poi lasciarlo andare a se stesso. Tutto sembrava andare bene, finché un giorno l'Humvee, avvicinandosi a un ponte, improvvisamente deviò da un lato. Pomerleau evitò l'incidente solo afferrando velocemente il volanre e riprendendo il controllo.Tornato in laboratorio, Pomerleau cercò di capire dove aveva sbagliato il computer. "Una parte della mia tesi è consistita nell'aprire la scatola nera e capire che cosa stava 'pensando' ". Ma come? Aveva programmato il computer per agire come una rete neurale - un tipo di intelligenza artificiale (IA) ispirata al cervello che prometteva di funzionare meglio degli algoritmi standard nel gestire le situazioni complesse del mondo reale.Purtroppo, queste reti sono anche opache quanto il cervello. Invece di memorizzare ciò che hanno appreso in un blocco ordinato di memoria digitale, distribuiscono le informazioni in un modo molto difficile da decifrare. Pomerleau riuscì ad afferrare il problema solo dopo un gran numero di test sulle risposte del software a vari stimoli visivi: la rete stava usando i margini erbosi della strada come indizioper la direzione da seguire, per cui l'aspetto del ponte l'aveva confusa.Venticinque anni dopo, decifrare la scatola nera è diventato sempre più difficile e più urgente. La tecnologia è esplosa sia in complessità che in numero di applicazioni. Pomerleau, che ora insegna robotica alla Carnegie Mellon, descrive il suo piccolo sistema sull'Humvee come "una versione povera" delle enormi reti neurali che vengono usate per le macchine di oggi.E le tecniche di apprendimento profondo, in cui le reti vengono addestrate su enormi archivi di dati, hanno applicazioni commerciali che vanno dalle automobili a guida autonoma ai siti Internet che consigliano prodotti in base alla storia di navigazione di un utente.L'apprendimento profondo promette di diventare onnipresente anche in ambito scientifico. I futuri osservatori radioastronomici ne avranno bisogno per trovare segnali utili nella mole altrimenti ingestibile dei loro dati; i rivelatori di onde gravitazionali lo useranno per identificare ed eliminare le più piccole fonti di rumore; e gli editori lo useranno per setacciare e "taggare" milioni di articoli  e libri scientifici.Alla fine, secondo alcuni ricercatori, i computer dotati di apprendimento profondo potranno anche manifestare immaginazione e creatività. "Butteremo dei dati in pasto alla macchina, e quella restituirà leggi di natura", dice Jean-Roch Vlimant, fisico al California Institute of Technology a Pasadena.Ma questi progressi renderebbero il problema della scatola nera ancora più acuto. Come fa la macchina a trovare i segnali utili, per esempio? E come si può essere sicuri che non sbagli? Fino a che punto dovremmo essere disposti a fidarci dell'apprendimento profondo?
 "Penso che stiamo sicuramente perdendo terreno rispetto a questi algoritmi", dice Hod Lipson, esperto di robotica alla Columbia University a New York City. Egli paragona la situazione all'incontro con una specie aliena intelligente i cui occhi hanno recettori non solo per i colori primari - rosso, verde e blu - ma anche per un quarto colore. Sarebbe molto difficile per gli esseri umani capire come vede il mondo l'alieno, e per lui spiegarlo a noi. I computer avranno difficoltà analoghe nello spiegaci le cose a noi, dice Lipson. "In un certo senso, è come spiegare Shakespeare a un cane."Di fronte a queste sfide, gli esperti di intelligenza artificiale stanno rispondendo proprio come Pomerleau: aprendo la scatola nera e facendo l'equivalente di ciò che fanno le neuroscienze. Le risposte non sono però una vera comprensione, dice Vincenzo Innocente, fisico del CERN, il laboratorio che ha aperto la strada all'applicazione dell'IA nella fisica delle particelle. "Come scienziato - dice - non mi basta saper distinguere i gatti dai cani. Uno scienziato vuole essere in grado di dire: 'la differenza è in questo e in questo".