blogtecaolivelli
blog informazione e cultura della biblioteca Olivelli
TAG
TAG
« Memorie di massa a base ... | Una macchina quantistica... » |
Post n°1982 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Le Scienze 23 ottobre 2017 Nel 2016 per la prima volta il programma d'intelligenza artificiale AlphaGo ha sconfitto un campione umano nel gioco tradizionale di strategia Go. Ma i creatori del programma hanno da poco lanciato AlphaGo Zero che, oltre a surclassare le prestazioni il suo predecessore, non ha bisogno di un addestra- mento umano perché impara da zero giocando contro se stesso, trovando mosse originali e vincenti mai viste prima di Larry Greenemeier/Scientific American computer scienceintelligenza artificiale All'inizio di quest'anno il programma di intelligenza artificiale AlphaGo ha messo fine a 2500 anni di supremazia dell'umanità nel giochi da scacchiera. Non soddisfatta della vittoria 3-0 contro il più forte giocatore al mondo, DeepMind Technologies, la società che ha creato AlphaGo, ha annunciato mercoledì una versione migliorata, AlphaGo Zero, che ha surclassato il suo predecessore in un confronto di IA, vincendo tutte e 100 le partite giocate. è il modo in cui AlphaGo Zero è diventato così dominante. A differenza dell'originale AlphaGo, che DeepMind ha addestrato nel tempo usando conoscenze e supervisioni umane a profusione, l'algoritmo del nuovo sistema si è autoaddestrato a padroneggiare il gioco. dare consigli per gli acquisti online e anche di parcheggiare l'auto in modo corretto. I computer acquisiscono queste abilità grazie ad "algoritmi di apprendimento" scritti da esseri umani che inseriscono enormi quantità di dati di addestra- mento in una rete neurale artificiale (così chiamata per la sua capacità di elaborare le informazioni in un modo liberamente ispirato alla struttura delle cellule nervose del cervello). Credit: age Fotostock/AGF Questo processo è chiamato apprendimento automatico. AlphaGo ha dovuto analizzare milioni di mosse fatte da esperti umani e giocare molte, molte partite contro se stesso per afforzare ciò che apprendeva. A maggio AlphaGo ha sconfitto Ke Jie, il miglior giocatore umano del mondo. Nel marzo del 2016 ha battuto un altro giocatore top, Lee Sedol, con l'ausilio di reti neurali multiple, i cui computer richiedevano 48 unità di elaborazione tensoriale (TPU), microchip specializzati appositamente progettati per la realizzazione di reti neurali. quattro TPU e un'unica rete neurale che inizialmente non sapeva nulla di Go. L'IA ha imparato senza supervisione: ha semplicemente giocato contro se stesso e presto è stato in grado di anticipare le proprie mosse e la loro possibile influenza sul risultato di una partita. "Questa tecnica è più potente delle versioni precedenti di AlphaGo perché non è più vincolata dai limiti della conoscenza umana", secondo un post scritto in un blog da Demis Hassabis, co-fondatore di DeepMind e da David Silver, che guida il gruppo di ricerca sull'apprendimento mediante rinforzo dell'azienda. (DeepMind è una divisione di Alphabet, Inc., casa madre di Google). conoscenza umana è che le informazioni possono essere troppo costose, troppo inaffidabili o semplicemente inesistenti in determinate situazioni. "Se tecniche simili potessero essere applicate ad altri problemi strutturati come il ripiegamento delle proteine, la riduzione del consumo di energia o la ricerca di nuovi materiali rivoluzionari, i risultati ottenuti potrebbero avere un impatto positivo sulla società", dice il blog. non convenzionali. Il Go viene giocato usando "pietre" colorate bianche e nere su una scacchiera con una griglia di 19 x 19 caselle. Ogni giocatore colloca le pietre con l'obiettivo di circondare un avversario. "Durante l'addestramento, AlphaGo Zero ha scoperto, giocato e infine imparato a preferire una serie di nuove varianti di joseki, sequenze locali di mosse, precedentemente sconosciute", afferma il portavoce di DeepMind Jon Fildes. della griglia, poiché ciò permette a un giocatore di guadagnare una migliore posizione complessiva sulla scacchiera. "Così come la mossa 37 della seconda partita contro Lee Sedol, questi momenti di ispirazione algoritmica ci danno un'idea della creatività di AlphaGo e del potenziale dell'IA", aggiunge Fildes. An Young-gil, giocatore professionista sudcoreano all'ottavo dan (il nono dan è il più alto), ha definito la mossa 37 come una giocata "rara e intrigante" poco dopo la partita del marzo 2016. SPL/AGFLo studio di DeepMind descrive "un risultato tecnico veramente impressionante; la loro capacità di ottenerlo e la loro capacità di addestrare il sistema in 40 giorni con quattro TPU sono notevoli", spiega Oren Etzioni, direttore generale dell'Allen Institute for Artificial Intelligence (AI2), che il co-fondatore di Microsoft Paul Allen ha istituito nel 2014 per concentrarsi sui potenziali vantaggi dell'IA. "Molti hanno usato l'apprendimento per rinforzo in precedenza, ma gli aspetti tecnici del lavoro sono innovativi". per la padronanza dei giochi da parte dell'IA, dice Etzioni. Nonostante ciò, "penso che sarebbe un errore credere di aver imparato qualcosa di generale sul pensiero e sull'apprendimento per l'intelligenza generale", aggiunge. "Questo approccio non funzionerà su problemi non così ben strutturati, come la comprensione del linguaggio naturale o la robotica, dove lo spazio degli stati è più complesso e non esiste una chiara funzione obiettivo". creare, in ultima analisi, l'IA che può pensare autonomamente, dice Etzioni, "ma occorrono più ricerche oltre i confini dei giochi da scacchiera e funzioni oggettive predefinite" prima che i computer possano davvero iniziare a pensare al di fuori dagli schemi. "Scientific American" il 18 ottobre 2017 . Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati) |
https://blog.libero.it/blogtecaolivelli/trackback.php?msg=14281271
I blog che hanno inviato un Trackback a questo messaggio:
AREA PERSONALE
MENU
CHI PUņ SCRIVERE SUL BLOG
I messaggi e i commenti sono moderati dall'autore del blog, verranno verificati e pubblicati a sua discrezione.