blogtecaolivelli

COMPUTER SCIENCE...


Fonte: Le Scienze15 dicembre 2018L'intelligenza artificiale ha problemi con il mondo reale
tGli ultimi sistemi d'intelligenza artificialediventano campioni a un gioco nel giro dipoche ore partendo da zero. Ma i ricercatori stanno cercando di applicarequesti sistemi anche a problemi della vita reale,che tuttavia per ora le macchine non riesconoad affrontare in modo efficace a causa della lorocomplessitàdi Joshua Sokol/Quanta Magazine.Fino a poco tempo fa, le macchine il grado disconfiggere i campioni erano almeno abbastanzarispettose da iniziare imparando dall'esperienzaumana.Nel 1997, per battere Garry Kasparov a scacchi,gli ingegneri dell'IBM hanno usato secoli di saggezzadegli scacchi nel loro computer Deep Blue.Nel 2016, AlphaGo di Google DeepMind ha battutoil campione Lee Sedol nell'antico gioco da tavoloGo dopo aver esaminato milioni di posizioni didecine di migliaia di partite umane.Ma ora i ricercatori di intelligenza artificiale stannoripensando il modo in cui i loro bot integrano latotalità della conoscenza umana.La tendenza attuale è: non disturbarti.Nell'ottobre 2017, il gruppo di DeepMind ha pubblicatoi dettagli di un nuovo sistema per giocare a Go,AlphaGo Zero, che non ha studiato affatto partiteumane.Invece, ha iniziato con le regole del gioco e hagiocato contro se stesso.Le prime mosse sono state completamente casuali.Dopo ogni partita, ha acquisito nuove conoscenzesu che cosa lo aveva portato a una vittoria e checosa no.Alla fine di questi allenamenti, AlphaGo Zerosi è scontrato con la versione superumana diAlphaGo che aveva sconfitto Lee Sedol.E ha vinto 100 partite a zero.Il gruppo ora ha creato un altro giocatore espertodella famiglia di AlphaGo, chiamato semplicementeAlphaZero. In un articolo pubblicato su" Science",i ricercatori di DeepMind hanno rivelato che, dopoaver ricominciato da zero, AlphaZero addestratoha superato in prestazioni AlphaGo Zero, in altreparole, ha battuto il bot che ha battuto il bot cheha battuto i migliori giocatori di Go nel mondo.(L'articolo è stato pubblicato per la prima volta sulsito di preprint scientifico arxiv.org nel dicembre 2017.)E quando gli sono state fornite le regole per gli scacchio lo shogi, variante giapponese degli scacchi, AlphaZeroha imparato rapidamente a sconfiggere anche glialgoritmi di alto livello nati su misura per quei giochi.Gli esperti si sono meravigliati dello stile aggressivoe inconsueto del programma."Mi sono sempre chiesto come sarebbe stato seuna specie superiore fosse arrivata sulla Terra e ciavesse mostrato come gioca a scacchi", ha detto ilgrande maestro danese Peter Heine Nielsen a unintervistatore della BBC. "Adesso lo so."
(Credit: iSock/mennovandijk)L'anno scorso hanno visto la luce anche bot di auto-apprendimento ultraterreno in ambientazioni moltodiverse come il poker no-limit e Dota 2, un popolarevideogioco on line multiplayer in cui eroi a tema fantasylottano per il controllo di un mondo alieno.Ovviamente, le aziende che investono denaro in questie altri sistemi simili hanno ambizioni più grandi chedominare i tornei di videogiochi.I gruppi di ricerca come DeepMind sperano di applicaremetodi simili a problemi del mondo reale, come lacostruzione di superconduttori a temperatura ambiente,o la comprensione degli origami necessari per ripiegarele proteine in potenti molecole farmacologiche.E, naturalmente, molti addetti ai lavori speranodi realizzare un'intelligenza artificiale generale,un obiettivo mal definito ma accattivante in cuiuna macchina potrebbe pensare come una persona,con la versatilità sufficiente per affrontare moltidiversi tipi di problemi.Tuttavia, nonostante gli investimenti su questi sistemi,non è ancora chiaro fino a che punto le tecniche attualipossano andare oltre il tavolo da gioco."Non sono sicuro che le idee di AlphaZero si possanogeneralizzare facilmente", ha detto Pedro Domingos,informatico dell'Università di Washington."I giochi sono una cosa assai insolita."Obiettivi perfetti per un mondo imperfettoUna caratteristica condivisa da molti giochi, scacchie Go inclusi, è che i giocatori possono vedere tutti ipezzi su entrambi i versanti in ogni momento.Ogni giocatore ha sempre quella che viene definita"informazione perfetta" sullo stato del gioco.Per quanto diabolicamente complesso diventi il gioco,tutto ciò che occorre fare è pensare in avanti rispettoalla situazione corrente.Tante situazioni reali non sono così.Immaginiamo di chiedere a un computer di diagnosticareuna malattia o condurre una trattativa d'affari."La maggior parte delle interazioni strategiche del mondoreale coinvolgono informazioni nascoste",ha detto Noam Brown, studente di dottorato in informaticaalla Carnegie Mellon University."Ho la sensazione che ciò è stato trascurato dallamaggior parte della comunità dell'intelligenza artificiale".Il poker, in cui Brown è specializzato, pone una sfida diversa.Non si possono vedere le carte dell'avversario.Ma anche qui le macchine che imparano giocandocontro se stesse stanno ora raggiungendo livellisovrumani.Nel gennaio 2017, un programma chiamato Libratuscreato da Brown e dal suo consulente, Tuomas Sandholm,ha battuto quattro giocatori professionisti di poker alTexas Hold 'em testa a testa, no-limit, finendo 1,7milioni di dollari davanti ai suoi avversari alla fine diuna gara di 20 giorni.Un gioco ancora più scoraggiante che coinvolgeinformazioni imperfette è StarCraft II, un altro videogiocoon line multiplayer con un vasto seguito.I giocatori scelgono una squadra, costruiscono unesercito e combattono una guerra in un paesaggiodi fantascienza.Ma quel paesaggio è avvolto da una nebbia di guerrache consente solo ai giocatori di vedere le aree in cuihanno soldati o edifici. Anche la decisione di andare inricognizione tra le linee nemiche è piena di incertezze.Questo è un gioco che l'intelligenza artificiale non puòancora affrontare.Gli ostacoli al successo includono il numero di mossein una partita, che spesso arrivano a migliaia, e lavelocità con cui devono essere fatte.Ogni giocatore - essere umano o macchina - devepreoccuparsi di una vasta serie di possibili futuri conogni click.Per ora, un testa a testa con i migliori esseri umaniin questa arena è fuori dalla portata dell'intelligenzaartificiale. Ma è un obiettivo.Nell'agosto 2017, DeepMind ha stretto una accordocon Blizzard Entertainment, l'azienda che ha realizzatoStarCraft II, per fornire gli strumenti che, secondo loro,aiuteranno ad aprire il gioco ai ricercatori di intelligenzaartificiale.Nonostante le sfide, StarCraft II si riduce a un obiettivoche può essere enunciato in modo semplice:elimina il tuo nemico.È qualcosa che condivide con scacchi, Go, poker, Dota2 e praticamente ogni altro gioco.Nelle partite, si può vincere.Dal punto di vista dell'algoritmo, i problemi devonoavere una "funzione obiettivo", cioè un obiettivo daperseguire.Quando AlphaZero ha giocato a scacchi, non è statocosì difficile.Una sconfitta contava come meno uno, un pareggiozero e una vittoria più uno.La funzione obiettivo di AlphaZero era di massimizzareil suo punteggio. La funzione obiettivo di un bot peril poker è altrettanto semplice: vincere un sacco di soldi.
(Credit: iSock/PhonlamaiPhoto)Le situazioni della vita reale non sono così semplici.Per esempio, un'automobile che guida da sola habisogno di una funzione obiettivo più sfumata,qualcosa di simile al tipo di frase che useremmoper esprimere un desiderio al genio della lampada.Per esempio: portare tempestivamente il passeggeroalla giusta destinazione, rispettare tutte le leggi evalutare adeguatamente il valore della vita umanain situazioni pericolose e incerte.Il modo in cui i ricercatori realizzano la funzioneobiettivo, ha affermato Domingos, "è una dellecose che distingue un grande ricercatore di apprendimentoautomatico dalla media".Consideriamo Tay, un chatbot di Twitter rilasciatoda Microsoft il 23 marzo 2016. L'obiettivo di Tay eracoinvolgere le persone, e così è stato."Quello che sfortunatamente Tay ha scoperto -ha detto Domingos, - era che il modo migliore permassimizzare il coinvolgimento era pubblicare insultirazzisti." È stato messo off-line dopo nemmeno un giorno.Il nostro peggior nemicoAlcune cose non cambiano.I metodi usati dai bot di gioco dominanti oggi usanostrategie inventate decenni fa."È quasi un tuffo nel passato, solo con più calcoli",ha detto David Duvenaud, informaticodell'Università di Toronto.Le strategie spesso si basano sull'apprendimentoper rinforzo, una tecnica basata sul non intervento.Invece di eseguire un algoritmo con istruzionidettagliate, gli ingegneri lasciano che la macchinaesplori un ambiente, in modo che impari araggiungere gli obiettivi per prove ed errori.Prima del rilascio di AlphaGo e dei suoi eredi, il gruppodi DeepMind ha ottenuto il suo primo grande risultatoda prima pagina nel 2013, quando ha usatol'apprendimento per rinforzo per creare un botche ha imparato a giocare sette giochi Atari2600, tre dei quali a livello esperto.Questi progressi sono continuati.Il 5 febbraio scorso, DeepMind ha presentatoIMPALA, un sistema di intelligenza artificiale ingrado di apprendere 57 giochi Atari 2600, più altri30 livelli costruiti da DeepMind in tre dimensioni.In questi, il giocatore girovaga attraverso diversiambienti, raggiungendo obiettivi come sbloccareporte o raccogliere funghi. IMPALA sembra trasferireconoscenza tra i compiti, il che significa che il tempotrascorso a giocare a un gioco aiuta anche amigliorare le prestazioni negli altri.Ma nella più ampia categoria di apprendimentoper rinforzo, giochi da tavolo e giochi multiplayerpermettono un approccio ancora più specifico.Qui, l'esplorazione può assumere la forma di giocosolitario, o self-play, in cui un algoritmo acquisiscela supremazia strategica combattendo ripetutamentecon la copia di se stesso.Questa idea risale a decenni fa.Negli anni cinquanta, l'ingegnere dell'IBMArthur Samuel creò un programma per giocare adama che imparava in parte facendo scontrare unlato alfa contro un lato beta.E negli anni novanta, Gerald Tesauro, anch'eglidi IBM, costruì un programma di backgammon chemetteva l'algoritmo contro se stesso.Il programma raggiunse livelli di esperti umani,escogitando via via strategie non ortodosse maefficaci.Partita dopo partita, l'algoritmo di un sistemaself-play affronta un avversario dello stesso livello.Ciò significa che i cambiamenti nella strategia portanoa risultati diversi, fornendo un feedback immediatoall'algoritmo."Ogni volta che impari qualcosa, ogni volta chescopri una piccola cosa, il tuo avversario la usaimmediatamente contro di te", ha detto IlyaSutskever, direttore della ricerca di OpenAI,organizzazione no profit, che ha co-fondato conElon Musk, dedicata allo sviluppo e alla condivisionedella tecnologia dell'intelligenza artificiale conl'obiettivo di arrivare ad applicazioni sicure.Nell'agosto 2017, l'organizzazione ha rilasciatoun bot Dota 2 che controlla il personaggio ShadowFiend, una sorta di demone-negromante che habattuto i migliori giocatori del mondo nelle battaglieuno contro uno.Un altro progetto OpenAI mette l'uno contro l'altroesseri umani simulati in un incontro di sumo, dovefiniscono per auto-apprendere come attaccaree fare finte. Durante il self-play, "non puoi maistare fermo, devi sempre migliorare", ha dettoSutskever.Ma la vecchia idea del self-play è solo un ingredientedei bot dominanti di oggi, che hanno anche bisognodi un modo per tradurre le loro esperienze di giocoin una comprensione più profonda.Chess, Go e videogiochi come Dota 2 hanno moltepiù permutazioni di quanti siano gli atomi nell'universo.Anche nel corso di molte vite trascorse a combatterela propria ombra in arene virtuali, una macchinanon può affrontare tutti gli scenari, prendere notain una tabella e consultare quella tabella quandosi trova di nuovo la stessa situazione.
(Credit: iSock/PhonlamaiPhoto)Per rimanere a galla in questo mare di possibilità,"è necessario generalizzare, catturare l'essenza",ha detto Pieter Abbeel, informatico dell'Universitàdella California a Berkeley.Deep Blue di IBM ha fatto questo con la sua formuladi scacchi intrinseca. Dotato della capacità divalutare l'efficacia di posizioni sulla scacchiera chenon aveva mai visto prima, poteva adottare mossee strategie per incrementare le sue possibilità divittoria. Negli ultimi anni, tuttavia, una nuova tecnicaha permesso di oltrepassare del tutto la formula."Ora, all'improvviso, la 'rete profonda' cattura tuttoquesto", ha detto Abbeel.Le reti neurali profonde, o deep neural networks, chehanno accresciuto la loro popolarità negli ultimi anni,sono costruite con strati di "neuroni" artificiali che sisovrappongono come in un pancake.Quando i neuroni in un livello si attivano, invianosegnali allo strato successivo, che li invia allostrato successivo e così via.Modificando il modo in cui gli strati si connettono,queste reti diventano molto abili nel trasformaregli input in output correlati, anche se la connessionesembra astratta. Date loro una frase in inglese, epotrebbero addestrarsi a tradurla in turco.Date loro foto di un rifugio per animali e potrebberoidentificare quali contengono gatti.Oppure mostrate loro una scacchiera e potrebberointuire le loro probabilità di vittoria.In genere, però, è necessario prima dare a questereti una serie di esempi contrassegnati su cuiesercitarsi.Ecco perché self-play e reti neurali profonde siintegrano così bene. Il self-play sforna continuamenteraccolte di partite, dando alle reti neurali profonde laserie teoricamente illimitata dei dati di cui hannobisogno per insegnare a se stesse.A loro volta, le reti neurali profonde offrono un modoper interiorizzare esperienze e schemi incontratinel self-play.Ma c'è un problema.Per produrre dati utili, i sistemi self-play hannobisogno di un luogo realistico in cui giocare."Tutti questi giochi, tutti questi risultati, sonoemersi in ambienti in cui è possibile simulareperfettamente il mondo", ha dichiarato Chelsea Finn,studentessa di dottorato di Berkeley che usal'intelligenza artificiale per controllare braccirobotizzati e interpretare i dati dai sensori.Altri domini non sono così facili da simulare.Le automobili a guida autonoma, per esempio,hanno difficoltà a gestire il maltempo o i ciclisti.Oppure potrebbero non elaborare le bizzarrepossibilità che si presentano nei dati reali,come un uccello che per caso vola direttamenteverso la videocamera dell'auto.Per i bracci robotici, ha detto Finn, le simulazioniiniziali forniscono la fisica di base, permettendoal braccio almeno di imparare in che modo apprendere.Ma non riescono a catturare i dettagli che riguardanoil contatto con le superfici, il che significa che compiticome avvitare un tappo di bottiglia o condurre unacomplessa procedura chirurgica richiedono ancheun'esperienza del mondo reale.Per problemi difficili da simulare, quindi, il self-playnon è così utile. "C'è un'enorme differenza tra unvero modello perfetto dell'ambiente e uno valutatoe appreso, soprattutto quando questa realtà ècomplessa", ha scritto Yoshua Bengio, pioniere deldeep learning all'Università di Montreal, in una email.Ma ciò lascia ancora ai ricercatori della intelligenzaartificiale alcune strade per andare avanti.La vita oltre i giochiÈ difficile individuare l'alba della supremaziadell'intelligenza artificiale nei giochi.Si potrebbe scegliere la sconfitta di Kasparov negliscacchi, o la disfatta di Lee Sedol per mano virtualedi AlphaGo. Un'altra opzione popolare sarebbe ilmomento in cui il leggendario campione di Jeopardy!(quiz televisivo statunitense, in cui i concorrenti sisfidano sulla cultura generale sulla base di indizi)Ken Jennings è stato sconfitto da Watson dell'IBM nel 2011.Watson poteva analizzare gli indizi del gioco egestire i giochi di parole.L'incontro, durato due giorni, non era equilibrato."Io per primo do il benvenuto ai nostri nuovipadroni computerizzati", ha scritto Jennings sottola sua risposta finale.Watson sembrava dotato del tipo di abilità chegli esseri umani usano in una serie di problemidel mondo reale.Poteva prendere un suggerimento in inglese,frugare tra i documenti pertinenti alla velocitàdella luce, trovare i frammenti di informazioniattinenti e fornire una singola migliore risposta.Ma sette anni dopo, il mondo reale continua apresentare sfide ostinatamente ardue perl'intelligenza artificiale. Un rapporto pubblicatoa settembre dalla rivista sanitaria "Stat" harilevato che la ricerca e la progettazione ditrattamenti personalizzati per il cancro, cercatida Watson for Oncology, erede di Watson,si stanno dimostrando difficili."Le domande in Jeopardy! sono più facili,nel senso che non hanno bisogno di moltosenso comune", ha scritto Bengio, che hacollaborato con il gruppo di Watson, quandogli è stato chiesto di confrontare i due casidal punto di vista dell'intelligenza artificiale."Capire un articolo di medicina è molto più difficile.Sono necessarie ancora molte ricerche di base"."Per quanto speciali siano i giochi, ci sonoancora problemi del mondo reale che sono simili.I ricercatori di DeepMind hanno rifiutato diessere intervistati per questo articolo, citandoil fatto che il loro lavoro con AlphaZero èattualmente sottoposto a revisione tra pari.Ma il gruppo ha suggerito che le sue tecnichepotrebbero presto aiutare i ricercatori in campobiomedico che vorrebbero comprendere il ripiegamentodelle proteine.Per fare questo, hanno bisogno di capire come ivari amminoacidi che formano una proteina siripiegano in una piccola macchina tridimensionalecon una funzione che dipende dalla sua forma.Ciò è complicato quanto lo sono gli scacchi:i chimici conoscono abbastanza bene le regoleper calcolare scenari specifici, ma ci sono ancoracosì tante configurazioni possibili, che cercare tradi esse è un compito senza speranza.Ma che cosa succederebbe se il ripiegamentodelle proteine potesse essere configuratocome un gioco? In realtà, è già stato fatto.Dal 2008, centinaia di migliaia di giocatori umanisi sono cimentati con Foldit, un gioco on line incui gli utenti ricevono un punteggio in base allastabilità e alla fattibilità delle strutture proteicheche ripiegano. Una macchina potrebbe allenarsi inmodo simile, forse cercando di battere il suoprecedente punteggio migliore con l'apprendimentogenerale per rinforzo.Anche apprendimento per rinforzo e self-playpotrebbero aiutare ad addestrare sistemi di dialogo,suggerisce Sutskever.Ciò darebbe ai bot che hanno intenzione diparlare agli esseri umani la possibilità diaddestrarsi parlando a se stessi.E considerando che l'hardware specializzato perl'intelligenza artificiale sta diventando più velocee più disponibile, gli ingegneri avranno un incentivoa mettere sempre più problemi in forma di giochi."Penso che in futuro il self-play e altri modi diconsumare una grande quantità di potenza dicalcolo diventeranno sempre più importanti",ha affermato Sutskever.Ma se l'obiettivo finale è che le macchine possanofare ciò che fanno gli esseri umani, anche per uncampione di gioco da tavolo generalistaautodidatta come AlphaZero si apre una strada."Secondo me, è necessario vedere che cosa èrealmente un grande divario tra le attività realidel pensiero, l'esplorazione creativa delle ideee quello che attualmente vediamo nell'IA", hadetto Josh Tenenbaum, scienziato cognitivodel Massachusetts Institute of Technology."Quel tipo di intelligenza è lì, ma rimane perlo più nella mente dei grandi ricercatori diintelligenza artificiale"."Molti altri ricercatori, consapevoli del clamoreche circonda il loro campo, mettono a disposizionele proprie competenze."Farei attenzione a non sopravvalutare il significatodi giocare a questi giochi, per l'intelligenza artificialeo per i lavori in generale.Gli esseri umani non sono molto bravi nei giochi", hadetto François Chollet, che si occupa di ricerca nelcampo del deep-learning per Google."Ma occorre tenere presente che strumenti moltosemplici e specializzati possono effettivamenteottenere molto", ha affermato.(L'originale di questo articolo è stato pubblicato il 21 febbraio 2018 e aggiornato il 6 dicembre da QuantaMagazine.org, una pubblicazione editoriale indipendente online promossa dalla Fondazione Simons per migliorare la comprensione pubblica della scienza. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati)