blogtecaolivelli
blog informazione e cultura della biblioteca Olivelli
TAG
TAG
Messaggi del 12/03/2019
Post n°2027 pubblicato il 12 Marzo 2019 da blogtecaolivelli
Puglia sempre più green: in 2 città l'olio del fritto diventerà biocarburante Il progetto di sperimentazione su autobus e mezzi per la raccolta dei rifiuti prenderà il via da Taranto e Bari ne segue la scia Puglia sempre più green e la rivoluzione verde prende il via da Taranto. Qui il sindaco Rinaldo Melucci ha sottoscritto un accordo secondo il quale verrà sperimentato l'utilizzo di "Enidisel +", carburante che ha la componente rinnovabile realizzata con materie prime biologiche. A porre la propria firma sull'accordo sono stati anche Giorgia Gira presidente dell'Azienda per la Mobilità dell'Area di Taranto (Amat), Carloalberto Giusti presidente di Azienda Multiservizi e Igiene Urbana di Taranto (Amiu) e da Giuseppe Ricci per Eni. Si tratta di una sperimentazione che verrà effettuata su alcuni autobus pubblici e sui mezzi che vengono utilizzati per la raccolta dei rifiuti. Il progetto avrà una durata di sei mesi, che prenderanno il via dal primo marzo 2019 per concludersi il 30 agosto 2019, durante i quali il gasolio verrà sostituito con questo combustibile, realizzato modificando materie prime come oli vegetali e grassi animali in biocarburanti. E non vi sarà alcun costo aggiuntivo. In parallelo si farà in modo che vengano ancora di più raccolti gli oli alimentari usati e di frittura affinché vengano poi trasformati. E sulla scia di Taranto, pare che anche Bari abbia intenzione di seguire lo stesso percorso. La città, che si è recentemente distinta per gli incentivi proposti ai cittadini che si recheranno sul luogo di lavoro in bicicletta, sembra intenzionata a intraprendere il medesimo progetto. Come ha spiegato l'assessore Pietro Petruzzelli con un post sulla sua pagina Facebook: "Un panzerotto per l'ambiente - sintetizza l'idea ricordando il progetto di Taranto - su alcuni mezzi pubblici verrà utilizzato un bio carburante ottenuto dal recupero degli scarti di olio. L'olio della frittura per intenderci. Un bell'esempio di economia circolare che vogliamo portare anche a Bari. Abbiamo infatti preso contatti con l'Eni per avviare la stessa sperimentazione su alcuni nostri autobus cittadini". Anche in questo caso il conferimento degli oli alimentari deve essere incentivato perché vengano trasformati in biocarburanti di alta qualità. "Quindi, lasciate perdere la dieta e mangiate tutti i panzerotti che volete - conclude con ironia l'assessore - . Farete bene al vostro umore e conferendo correttamente l'olio anche all'ambiente". Anche a Bari la sperimentazione dovrebbe avvenire su alcuni autobus pubblici e sui mezzi utilizzati per la raccolta dei rifiuti. |
Post n°2026 pubblicato il 12 Marzo 2019 da blogtecaolivelli
Fonte: Internet 01 febbraio 2019 Un modello globale per le precipitazioni estreme Piogge estreme in regioni del globo molto distanti tra loro possono avere un'origine comune. La scoperta di questo fenomeno e di un meccanismo che spiega il collegamento regolare di questi eventi di precipitazioni piovose permetterà di migliorare i modelli sia meteorologici sia climatici globali Precipitazioni estreme che si verificano in regioni molto distanti del globo sono collegate fra loro secondo schemi specifici. Per esempio, precipitazioni estreme in Europa possono precedere di circa cinque giorni lo stesso fenomeno in India, senza che si verifichino fenomeni analoghi nelle regioni intermedie. dello studio, che le piogge in Europa causino la pioggia in Pakistan e India, ma che fanno parte di uno stesso schema di circolazione atmosferica in cui le piogge europee sono innescate per prime. La Senna fuori dagli argini in seguito a piogge estreme. (© agefotostock / AGF) La scoperta dell'esistenza di modelli globali su larga scala per eventi di precipitazioni estreme, pubblicata su "Nature", permetterà di testare e migliorare i modelli meteorologici e climatici globali, portando a previsioni più accurate. Impact Research, e colleghi hanno scomposto il globo in un numero elevato di"spicchi", e su questa griglia hanno riportato le informazioni relative alle precipitazioni estreme, basandosi sui dati satellitari ad alta risoluzione dal 1998 in poi. Infine, i ricercatori hanno calcolato quanto ciascuno spicchio fosse in sincronia o sfalsato rispetto agli altri, rilevando per esempio che gli eventi estremi nei monsoni estivi dell'Asia meridionale sono in media legati a eventi nelle regioni dell'Asia orientale, dell'Africa, dell'Europa e del Nord America.
Le linee rosse che partono dal nord dell'India mostrano modelli meteo locali, mentre le linee blu mostrano modelli globali che collegano eventi di precipitazioni estreme. In particolare, le strutture blu sopra l'Europa indicano che le precipitazioni estreme nell'India settentrionale possono essere previste da eventi precedenti in Europa. (Cortesia Boers et al. 2019) Successivamente, combinando questi dati con le conoscenze sui movimenti dell'atmosfera, gli scienziati hanno individuato un possibile meccanismo in grado di spiegare le associazioni regolari rilevate. dalle cosiddette onde di Rossby, movimenti impetuosi di grandi masse d'aria grandi che si spostano come correnti a getto sotto forma di onde di enorme lunghezza d'onda (anche di 1500 chilometri), indotte dal movimento di rotazione terrestre. risultati aiutino a prevedere le precipitazioni estreme e le relative inondazioni e frane soprattutto nelle aree tropicali, come il nord-est del Pakistan, il nord dell'India e in Nepal. Negli ultimi anni ci sono stati diversi eventi di questo tipo, con conseguenze devastanti, come l'alluvione del 2010 in Pakistan". |
Post n°2025 pubblicato il 12 Marzo 2019 da blogtecaolivelli
Fonte: Internet 05 settembre 2018 L'intelligenza artificiale e le repliche di grandi terremoti Le analisi delle reti neurali sono più accurate rispetto ai metodi che in genere gli scienziati usano per capire dove colpiranno questi tremori successivi a una scossa principale e suggeriscono cambiamenti fisici che potrebbero essere avvenuti nel suolo dopo il terremoto inizialedi Alexandra Witze / Nature scienze della terracomputer science Uno studio basato sull'apprendimento automatico che ha analizzato centinaia di migliaia di terremoti ha superato il metodo standard per prevedere la posizione delle repliche (aftershocks) . un modo nuovo di analizzare come i cambiamenti nello stress del suolo, per esempio quelli che si verificano durante un grande terremoto, innescano i terremoti che seguono. Potrebbe inoltre aiutare i ricercatori a sviluppare nuovi metodi di valutazione del rischio sismico. Casa crollata in seguito al terremoto a Christchurch, in Nuova Zelanda, a settembre 2010."Abbiamo appena graffiato la superficie di quello che l'apprendimento automatico potrebbe essere in grado di fare nella previsione delle repliche", dice Phoebe DeVries, sismologa alla Harvard University di Cambridge, in Massachusetts. Lei e i suoi colleghi riferiscono i lororisultati su "Nature". e possono essere altrettanto dannose - o addirittura più dannose - rispetto alla scossa iniziale. Nel settembre 2010 un terremoto di magnitudo 7.1 nei pressi di Christchurch, in Nuova Zelanda, non ha ucciso nessuno: ma una replica di magnitudo 6.3, verificatasi oltre cinque mesi dopo e più vicina al centro della città, ha causato 185 morti. saranno grandi le repliche, ma faticano a prevedere dove si verificheranno i terremoti. Finora, la maggior parte degli scienziati ha usato una tecnica in cui si calcola come un terremoto cambia lo stress nelle rocce vicine e poi prevede quanto è probabile che quel cambiamento si traduca in una replica in un luogo particolare. Questo metodo di stress-frattura può spiegare con successo gli andamenti (pattern) delle scosse successive per molti grandi terremoti, ma non sempre funziona. terremoti del passato, e DeVries e i suoi colleghi hanno deciso di usarli per elaborare un metodo di previsione migliore. "L'apprendimento automatico è uno strumento molto potente in questo tipo di scenario", afferma DeVries. Gli scienziati hanno esaminato più di 131.000 scosse principali e repliche, tra cui alcune delle più potenti della storia recente, come il devastante evento di magnitudo 9.1 che ha colpito il Giappone a marzo 2011. I ricercatori hanno usato questi dati per addestrare una rete neurale che modellava una griglia di celle di cinque chilometri di lato, tutto intorno a ogni scossa principale. Hanno indicato alla rete che si era verificato un terremoto, dandogli i dati su come era cambiato lo stress al centro di ogni cella della rete. Poi gli scienziati hanno chiesto di fornire la probabilità che ogni cella della griglia generasse una o più repliche. La rete ha trattato ogni cella come un piccolo problema isolato da risolvere, invece di calcolare come lo stress si spostava in sequenza attraverso le rocce. sistema su 30.000 eventi di scossa principale -repliche, le previsioni della rete neurale indicavano le posizioni delle repliche più accuratamente di quanto non facesse il solito metodo di stress-frattura. Cosa forse più importante, dice DeVries, la rete neurale ha anche suggerito cambiamenti fisici che potrebbero essere avvenuti nel suolo dopo la scossa principale. Ha indicato come potenzialmente importanti alcuni parametri, quelli che descrivono le variazioni di stress in materiali come i metalli, ma che i ricercatori non usano spesso per studiare i terremoti. un buon passo verso l'analisi delle repliche con occhi nuovi, dice Daniel Trugman, sismologo al Los Alamos National Laboratory, in New Mexico. "L'algoritmo di apprendimento automatico ci sta dicendo qualcosa di fondamentale sui processi complessi che sono alla base dell'innesco del terremoto", dice. delle repliche, dice Gregory Beroza, geofisico alla Stanford University, in California. Per esempio, non considera un tipo di cambiamento di stress che avviene quando le onde sismiche attraversano la Terra. Ma "questo articolo dovrebbe essere visto come un nuovo approccio all'innesco delle repliche", dice. "Questo è importante e motivante". pubblicato su "Nature" il 29 agosto 2018. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati.) |
Post n°2024 pubblicato il 12 Marzo 2019 da blogtecaolivelli
Fonte: Le Scienze 27 ottobre 2017 Per impedire l'accesso a sistemi automatizzati, molti siti web richiedono di digitare una serie di caratteri deformati, le CAPTCHA, un compito che mette in gravi difficoltà i bot, cioè programmi informatici che fanno finta di essere delle persone. Ora però è stato sviluppato un sistema computerizzato che riesce agevolmente a superare la prova(red) Si chiama RCN e ha "bucato" senza grandi problemi uno dei più diffusi sistemi di sicurezza usati dai siti web per impedire l'accesso ai loro servizi ai "bot", i programmi che simulano di essere persone. L'algoritmo di apprendimento visivo automatico RCN, acronimo di Recursive Cortical Network, è infatti riuscito a superare il test CAPTCHA (completely automated public Turing test to tell computers and humans apart) in cui all'utente del sito viene chiesto di digitare una serie di lettere o numeri variamente distorti che appaiono in una finestra. o numeri mescolando, anche in uno stesso carattere, milioni di stili grafici differenti. In questo modo ogni lettera è composta da una stratificazione di stili differenti; inoltre vengono variate anche spaziatura, dimensione e inclinazione delle lettere presenti in una sequenza. Anche di fronte a un simile assemblamento di stili, gli esseri umani possono riconoscere naturalmente quell'oggetto grafico, pur se fortemente distorto. I computer incontrano invece grandissime difficoltà a identificare i caratteri così trattati.
Schema del riconoscimento della lettera A. (Cortesia Vicarious AI)Finora il test - considerato una sorta di test di Turing visivo alla rovescia (nel test di Turing è l'essere umano che deve capire se colloquia con un robot o un altro essere umano) - riusciva a essere superato solo da sofisticati algoritmi di apprendimento profondo che però dovevano essere addestrati con milioni di esempi di lettere CAPTCHA. un gruppo di ricercatori dell'Università di Cambridge è riuscito a creare un sistema che, come il cervello umano, ha la capacità di imparare e generalizzare a partire da un numero relativamente ridotto di esempi (5000 volte meno dei sistemi alternativi). Il risultato è stato raggiunto grazie a un insieme di accorgimenti mutuati dallo studio delle neuroscienze e dell'architettura del sistema visivo e cerebrale. umano Dileep George e colleghi hanno ricavato alcuni principi che, implementati su RCN, fungono per esso da "conoscenza di sfondo" utile per poter poi riconoscere input che non ha mai i ncontrato nella fase di addestramento. In questo modo RCN raggiunge un'accuratezza di riconoscimento del 94,3 per singole lettere e del 66,6 per cento per una stringa di caratteri. geriscono la necessità di tecniche più robuste per l'identificazione degli utenti umani di quelle garantite da CAPTCHA. |
Post n°2023 pubblicato il 12 Marzo 2019 da blogtecaolivelli
fonte: Le Scienze 23 febbraio 2018 IIT- L'umanoide WALK-MAN è più leggero ed è stato testato come avatar robotico in supporto alle squadre di emergenza Comunicato stampa - Più leggero di 31 chili, WALK-MAN ha affrontato uno scenario che ricrea un impianto industriale danneggiato da un terremoto in cui sono presenti detriti, fughe di gas e fuoco Genova, 22 febbraio 2018 - Spegnere gli incendi e supportare le squadre di emergenza come un "avatar" robotico sono i compiti per cui è stata testata una nuova versione del robot umanoide WALK-MAN all'IIT -Istituto Italiano di Tecnologia di Genova. Il robot è in grado di localizzare le fiamme di un incendio, camminare verso di esse, e attivare un estintore per spegnerle, mentre un operatore lo guida da lontano. L'ultima versione di WALK-MAN ha un nuovo design, più leggero di 31 chili grazie all'utilizzo di leghe di magnesio, e nuove mani più abili nelle manipolazioni. Il nuovo design è stato pensato per ridurre i costi di costruzione e migliorare le prestazioni in termini energetici. progettato e realizzato dall'IIT, in collaborazione con altri partner internazionali, nell'ambito di un progetto finanziato dalla Commissione Europea dal 2013 e in fase di conclusione. Nel giugno 2015, WALK-MAN era stato l'unico progetto italiano e finanziato dall'UE a partecipare a Los Angeles alla gara internazionale di robotica DARPA Robotics Challenge (DRC), promossa per definire gli standard tecnologici dei robot capaci di fornire assistenza in caso di disastri naturali o provocati dall'uomo. Durante la sfida il robot aveva affrontato uno scenario ispirato all'incidente nucleare di Fukushima. Nel 2016 WALK-MAN è stato testato in uno scenario reale, in seguito al terremoto ad Amatrice, all'interno di edifici danneggiati per eseguire un'ispezione della struttura e fornire informazioni sulla stabilità dell'edificio. affrontato uno scenario definito dai ricercatori insieme alla Protezione Civile di Firenze: un impianto industriale danneggiato da un terremoto in cui sono presenti detriti, fughe di gas e fuoco, quindi una situazione pericolosa per l'uomo. Lo scenario è stato ricreato in laboratorio attraverso la costruzione di un ambiente fittizio, dove WALK-MAN è stato in grado di muoversi ed eseguire quattro compiti specifici: aprire e attraversare una porta per entrare nella zona; localizzare una valvola di tipo industriale e chiuderla, così da simulare l'interruzione della perdita di gas; rimuovere gli ostacoli sul suo percorso; e infine identificare la posizione delle fiamme e attivare l'estintore. a distanza da un operatore umano tramite un'interfaccia virtuale e una tuta sensorizzata, vestita dall'operatore, che consente di azionare il robot in modo naturale, controllandone la manipolazione e la locomozione, come un avatar. L'operatore riceve in modo continuo immagini e informazioni dai sistemi di percezione del robot. superiore del corpo (busto e braccia) più leggera, la cui realizzazione ha richiesto 6 mesi, coinvolgendo una squadra di circa 10 ricercatori coordinata da Nikolaos Tsagarakis, ricercatore presso IIT e coordinatore del progetto. alto 1,85 metri, realizzato in metallo leggero, come ergal (60%), leghe di magnesio (25%) e titanio, ferro e plastica. I ricercatori hanno ridotto il suo peso di 31 chili - dai 133 chili originari, a 102 chili - per rendere il robot più dinamico. Le gambe possono muoversi più velocemente avendo una massa superiore del corpo più leggera da trasportare. Inoltre, il robot riesce a reagire più velocemente a spinte esterne, realizzando dei passi laterali per mantenere l'equilibrio; una caratteristica che gli permette di adattare il proprio passo a terreni accidentati o a situazioni in cui l'interazione con l'ambiente è variabile. L'alleggerimento del busto ha permesso di ridurre anche il suo consumo di energia, utilizzando così una batteria da 1 kWh per operare circa due ore. di magnesio e altri compositi, e presentano una nuova versione di attuatori che hanno ottimizzato le prestazioni: la capacità di carico è più elevata (10 kg/braccio) rispetto alla prima versione (7 kg/braccio), e può trasportare e sostenere oggetti pesanti per un periodo di 10 minuti. La nuova parte di corpo ha anche dimensioni più compatte: la larghezza delle spalle è di 62 cm e la profondità del busto è di 31 cm, conferendo al robot un profilo più adeguato per passare attraverso le porte e i passaggi stretti. robotiche Soft-Hand sviluppate dal Centro Ricerche E. Piaggio dell'Università di Pisa (gruppo del Prof. A. Bicchi) in collaborazione con IIT. Le dita sono state costruite con un nuovo materiale composito leggero, e hanno un migliore rapporto dita-palmo (più simile a quello umano) che aumenta la varietà di forme degli oggetti che il robot può afferrare. motori e schede di controllo, 4 sensori di forza e coppia (2 ai piedi e 2 alle mani) e 2 accelerometri per il controllo del suo equilibrio. Le sue articolazioni mostrano un movimento elastico che consente al robot di essere "morbido" nelle sue azioni e di avere interazioni sicure con l'uomo e l'ambiente. La sua architettura software è basata su framework XBotCore, piattaforma YARP, ROS e Gazebo. Nella testa sono presenti telecamere, scanner laser 3D e microfoni, e nel futuro potranno essere aggiunti sensori per riconoscere la presenza di sostanze tossiche. Il progetto WALK-MAN ha coinvolto un consorzio di istituti di ricerca composto da: l'Istituto Italiano di Tecnologia (IIT) e il Centro Ricerche E. Piaggio dell'Università di Pisa in Italia, l'École Polytechnique Fédérale di Losanna (EPFL) in Svizzera, il Karlsruhe Institute of Technology (KIT) in Germania e l'Université catholique de Louvain (UCL) in Belgio. |
Post n°2022 pubblicato il 12 Marzo 2019 da blogtecaolivelli
fonte: Internet Dopo 14 anni di lavori riapre il Portico d'Ottavia: la città di Roma ritrova così uno dei suoi più suggestivi monumenti, i cui resti saranno oggi monitorati da lontano .È ricca di monumenti, Roma. E, oggi, per i turisti ne (ri)apre uno in più. È ilPortico di Ottavia, un complesso monumentale d'epoca augustea, nella zona di Circo Flaminio. Era, un tempo, un recinto porticato (che circondava i due tempi di Giove Statore e di Giunione Regina), i cui resti - visibili ancora oggi - sono testimonianza di una ristrutturazione voluta da Settimio Severo. Dopo quattordici anni di lavori, il Portico d'Ottavia è stato restituito alla città: lo scorso 18 dicembre - alla presenza del sindaco Virginia Raggi, del Sovrintendente ai Beni Culturali Claudio Parisi Presicce e del Presidente della Comunità Ebraica Ruth Dureghello - il complesso ha riaperto. E - grazie al lungo restauro, condotto da un team di ingegneri, archeologi e architetti con l'aiuto di nuove tecnologie - torna ad essere tappa imprescindibile per chi vuole immergersi nell'atmosfera della Roma Antica. Un'atmosfera oggi monitorata da lontano: dedicato da Augusto alla sorella Ottavia, il Portico sarà oggi controllato a distanza, per evitare che - come successo in passato - sia vittima di danneggiamenti. Perché, quella del Portico d'Ottavia, è una storia travagliata. Un tempo, lì sorgeva il Portico di Metello, un recinto con portici sui quattro lati decorato da opere d'arte greche. Al suo interno vi erano il tempio di Giunone Regina (voluto dal censore Marco Emilio Lepido) e il tempio di Giove Statore (commissionato da Quinto Cecilio Metello Mecedonico). Tra il 23 e il 27 a.C. il complesso fu ristrutturato da Gaio Giulio Cesare Ottaviano Augusto col bottino della vittoria sulla Dalmazia. Lo dedicò a sua sorella Ottavia, rimaneggiò i tempi, fece costruire una biblioteca per libri greci e latini. Danneggiato nell'80, fu fatto restaurare da Domiziano; nel 203 intervenne Settimio Severo, dopo che era stato distrutto da unincendio. Nel 442 toccò ad un terremoto: due colonne d'ingresso vennero sostituite dall'arcata che ancora oggi si vede, insieme alla chiesa di San Paolo in summo circo (datata 770). Parte del ghetto di Roma dal 1555, il Portico d'Ottavia permette oggi di visitare i resti dell'ingresso centrale, i blocchi in tufo di Monteverde (corrispondenti probabilmente al porto d'epoca metelliana), i resti del tempio di Giunone Regina e quelli del mercato del pesce. |
Post n°2021 pubblicato il 12 Marzo 2019 da blogtecaolivelli
Fonte: Internet PUBBLICATO IL 11 SETTEMBRE 2018 Il mistero delle tombe di vampiri scoperte in Polonia Presso la comunità scientifica, negli ultimi tempi stanno destando grande interesse le insolite sepolture del XVII secolo rinvenute l'anno scorso nel cimitero del villaggio rurale di Drawsko, in Polonia. Alcuni ritenevano possibile che si trattasse dei cadaveri dei famigerati vampiri. Una di quelle più interessanti contiene i resti del corpo di una donna con una falce appoggiata sul bacino, una pietra sul collo e una moneta in bocca. Altri quattro scheletri presentavano lame ricurve che attraversavano la gola, strana usanza riscontrata anche in scavi effettuati in Slovacchia e in altri paesi europei. Un antropologo della canadese Lakehead University, Marek Polcyn, ha studiato a fondo questo caso che, data la sua rarità, poteva corroborare le leggende popolari sui "non morti" e sui demoni che terrorizzavano gli antichi, che non avevano le conoscenze e gli strumenti per spiegare in maniera scientifica tutto ciò che accadeva intorno a loro. Gli arnesi ritrovati nelle tombe dovevano servire per impedire alle creature malvagie di ritornare dall'oltretomba a tormentare i vivi. L'inumazione è frutto della conversione degli slavi al Cristianesimo: prima di abbracciare la fede cristiana, infatti, queste popolazioni cremavano i corpi, convinte che il fuoco avrebbe purificato e liberato le anime dei loro defunti, rendendoli inoffensivi. La superstizione, fusa con la promessa cristiana della resurrezione, aveva foraggiato la credenza dell'esistenza di vampiri ed altre creature demoniache, capaci di tornare dall'aldilà, seminando morte e sventura. La donna con la falce in grembo potrebbe quindi essere il demone femminile przypołudnica che si pensava si nascondesse nei campi grano in attesa dei bambini? Assolutamente no. La ricerca più recente su queste tombe, pubblicata sulla rivista scientifica PLoS ONE, ha rivelato che nel cimitero di Drawsko erano stati sepolti i cadaveri degli abitanti del paese che erano morti di colera: pietre e falcetti erano il tentativo degli abitanti del villaggio di "bloccare" sotto terra i corpi ammorbati dalla malattia, impedendo loro di "risorgere" e propagare l'epidemia in paese. |
Post n°2020 pubblicato il 12 Marzo 2019 da blogtecaolivelli
Fonte: Le Scienze 30 novembre 2017 Due studi hanno dimostrato la possibilità di controllare un numero eccezionalmente alto di atomi neutri o ionizzati, mantenuti in posi- zioni fisse a temperature prossime allo zero assoluto. I risultati degli esperimenti rappresentano un deciso passo in avanti verso la realizzazione di qubit, gli analoghi quantistici delle unità d'informa- zione binaria, su cui si baseranno in futuro i computer quantistici(red computer sciencefisica delle particelle Per molti decenni lo sviluppo dei computer ha seguito la miniaturizzazione dei componenti elettronici secondo la legge formulata da Gordon Moore, cofondatore di Intel, e nota appunto come "legge di Moore". Ricavata da dati empirici, questa legge afferma che "la complessità di un microcircuito, misurata tramite il numero di transistor per chip, raddoppia ogni 18 mesi". E poiché la capacità di calcolo è direttamente proporzionale al numero di transistor per chip, anch'essa raddoppia nello stesso arco di tempo. chiaramente continuare all'infinito: alcuni anni fa le tecniche industriali di produzione dei circuiti integrati hanno quasi raggiunto il proprio limite fisico. Una delle possibili strategie per aggirare questo problema è usare atomi e molecole come componenti fondamentali dei calcolatori, e con essi realizzare i cosiddetti computer quantistici. un passo in avanti sulla lunga strada per la realizzazione di questi dispositivi: si tratta di due simulatori quantistici, ciascuno costituito da un numero eccezionalmente elevato di qubit, gli analoghi quantistici dei bit, le unità di informa- zione binaria su cui si basa il calcolo automatico convenzionale. Illustrazione di una schiera di qubit controllati da fasci laser esterni. (Credit: E. Edwards/JQL)Nel computer che usiamo tutti i giorni le informazioni sono codificate in serie numeriche di varia lunghezza composte solo da 0 e 1, che a loro volta corrispondono a due diversi stati di un interruttore di un circuito elettrico, rispettivamente aperto e chiuso. Nei computer quantistici, l'informazione è codificata dagli stati di sistemi microscopici, per esempio dallo spin, che possiamo immaginare come la direzione della rotazione di una particelle attorno al proprio asse, che in uno ione può assumere i valori di "su" e "giù": si parla quindi di qubit, cioè bit d'informa- zione quantistica. della meccanica quantistica, possono esistere simultaneamente in una combinazione di stati fondamentali, aumentando esponenzialmente le possibilità di codifica delle informazioni e quindi le capacità di calcolo. è un compito molto complicato. Altrettanto complicato è prevederne il comportamento, soprattutto quando si mettono insieme numerosi qubit. Per questo sono nati i simulatori quantistici, che permettono di verificare i processi tipici di questi sistemi in condizioni controllate e non necessariamente legate alle finalità di calcolo. Mikhail Lukin e colleghi della Harvard University hanno usato "pinze ottiche", costituite da campi di fasci laser, per mantenere in posizioni fisse 51 atomi di rubidio mantenuti a una temperatura di poche frazioni di grado al di sopra dello zero assoluto. rubidio dallo stato elettronico fondamentale allo stato di Rydberg, in cui uno degli elettroni orbitali si trova molto distante dal nucleo. L'interesse ai fini applicativi è che un atomo di Rydberg ha un momento di dipolo elettrico - cioè l'entità della separazione tra addensamenti di cariche elettriche positive e negative - molto elevato; i diversi dipoli possono così interagire tra loro anche a una distanza relativamente grande, fornendo un modo per far comunicare tra loro diversi qubit. Questa tecnica ha il vantaggio di poter realizzare schiere anche molto ampie di atomi. ad alcune centinaia di atomi", ha spiegato Vladan Vuletic, che ha partecipato allo studio. "E se si vuole usare questo sistema in un computer quantistico, occorrono proprio schiere dell'ordine di 100 atomi." dovuto superare una difficoltà in particolare: gli atomi rimangono intrappolati solo quando sono nello stato elettronico fondamentale. Gli sperimentatori però sono riusciti a studiare gli effetti associati agli stati di Rydberg perché, durante l'eccitazione degli atomi, i laser possono essere spenti per un tempo breve, sufficiente a fare in modo che gli atomi rimangano fermi nella loro posizione. E una volta riaccesi i laser, è possibile rilevare lo stato quantistico del sistema. Il dispositivo fornisce così una via promettente per realizzare sistemi di molti qubit con interazioni a lungo raggio controllabili dall'esterno. potuto simulare, con il nuovo dispositivo, una versione programmabile del modello di Ising, un modello fisico-matematico utilizzato per studiare fenomeni collettivi in cui i costituenti interagiscono tra di loro. Nel caso specifico, grazie ai 51 atomi intrappolati gli autori hanno riprodotto transizioni di fase, cioè processi che coinvolgono passaggi di stato della materia (per esempio, l'acqua allo stato liquido che diventa ghiaccio). Il dispositivo ha permesso di simulare in particolare il riorientamento degli spin atomici che porta a strutture ordinate note come cristalli di Rydberg. applicato al sistema un rapido cambiamento nei parametri fisici per testarne la risposta. Le misurazioni hanno evidenziato una caratteristica dinamica oscillatoria, che è un indicatore della natura quantistica delle correlazioni esistenti tra gli atomi. Christopher Monroe e colleghi dell'Università del Maryland a College Park, grazie a campi elettrici hanno intrappolato 53 ioni itterbio mantenuti a temperature prossime allo zero assoluto, ciascuno dei quali codifica un qubit. versatilità: possono effettuare operazioni logiche quantistiche di elevata qualità, come ha dimostrato un filone di ricerca molto attivo negli ultimi anni. Finora i simulatori quantistici di questo tipo sono arrivati a un massimo di 16 ioni: aver dimostrato che è possibile arrivare a 53 è quindi un notevole passo avanti. Monroe e colleghi hanno indotto forti interazioni a lungo raggio tra i qubit, poi hanno effettuato dei test, misurando le reazioni dei simulatore con diversi parametri fisici. In questo modo hanno documentato non solo la presenza di correlazioni quantistiche tra coppie di qubit, ma anche correlazioni di ordine più alto, ciò che coinvolgono diversi qubit secondo schemi non banali. essere connessi tra loro", ha sottolineato Monroe. "Ciò significa che lo stesso dispositivo può essere riprogrammato e riconfigurato dall'esterno per essere adattato a qualunque tipo di simulazione quantistica o futura applicazione di calcolo quantistico". |
Post n°2019 pubblicato il 12 Marzo 2019 da blogtecaolivelli
Fonte: Le Scienze 30 luglio 2018 L'itterbio, un elemento delle cosiddette terre rare, è l'ideale per realizzare memorie quantistiche in grado di intrappolare e sincronizzare ad alta frequenza i fotoni che garantiscono una crittografia delle comunicazioni digitali(red) Una rete di computer che basano il loro funzionamento sulla meccanica quantistica, con una capacità di calcolo inarrivabile per le macchine attuali basate sull'elettronica. E anche impossibili da violare senza distruggere l'informazione stessa. sembra più vicino, grazie al risultato descritto su "Nature Materials" da ricercatori dell'Università di Ginevra in collaborazione con il CNRS francese. Cuore del risultato è una memoria quantistica a base dell'elemento chimico itterbio, che soddisfa importanti richieste tecniche che erano fuori portata. centinaia di chilometri, protette da un elevato grado di sicurezza. Chi volesse infatti copiare o intercettare l'informazione che trasmettono determinerebbe la scomparsa dell'informazione stessa. La volatilità dell'informazione veicolata da questi sistemi rende tuttavia anche impossibile amplificare il segnale e propagarlo su distanze ancora più lunghe. Particolare del dispositivo che ha testato la nuova memoria a base di itterbio. (Cortesia: Unige) Per aggirare il problema, i ricercatori stanno lavorando su memorie quantistiche in grado di catturare i fotoni che viaggiano attraverso le fibre ottiche e di sincronizzarli in modo da poterli diffondere su distanze sempre più grandi. Ma finora è mancato un materiale giusto per questo scopo. solare dai disturbi ambientali l'informazione quantistica veicolata dai fotoni, in modo da tenerli fermi per un secondo circa e poterli sincronizzare", ha commentato Mikael Afzelius, coautore dello studio. "Inoltre, bisogna considerare che i fotoni viaggiano a quasi 300.000 chilometri al secondo". isolato dal contesto e in grado di immagazzinare ripetutamente fotoni con un'altissima frequenza. E queste due richieste sono in contrasto tra loro. d'indagine è usare qualche membro delle cosiddette terre rare, un gruppo di 17 elementi. Alcuni test effettuati in passato con elementi come europio e praseodimio però avevano dato risultati negativi. ricevuto scarsa attenzione: l'itterbio, che ha numero atomico 70", ha spiegato Nicolas Gisin. Collocando l'itterbio in un campo magnetico con caratteristiche opportune gli autori hanno osservato che l'atomo di questo elemento diventa insensibile ai disturbi ambientali. Ciò lo rende la soluzione ideale per intrappolare i fotoni e sincronizzarli. magico' variando l'ampiezza e la direzione del campo magnetico: in corrispondenza di questo punto, il tempo di coerenza dell'itterbio, cioè il tempo medio dopo il quale l'atomo viene disturbato dall'ambiente circostante, aumenta di oltre 1000 volte, pur lavorando ad alte frequenze. realizzare memorie e reti quantistiche a base d'itterbio. di ottenere un network quantistico globale: è da sottolineare quanto sia importante in questo tipo di studi portare avanti la ricerca fondamentale parallelamente a quella applicativa", hanno concluso i ricercatori. |
Post n°2018 pubblicato il 12 Marzo 2019 da blogtecaolivelli
Fonte: Le Scienze 1La galassia di Andromeda, un quarto di Luna, la Via Lattea: sono questi gli elementi che compongono questa suggestiva immagine, vincitrice del primo premio della classifica generale e della sezione "People & Space". Ripresa dalle colline di scisto di Moab, in Utah, negli Stati Uniti, ritrae anche il suo autore al lavoro: è il fotografo che fa capolino sulla sinistra, in controluce. (© Brad Goldpaint) Circa 4200 concorrenti da 91 nazioni: sono da primato i numeri della partecipazione all'Insight Investment Astronomy Photographer of the Year 2018, uno dei più importanti premi di fotografia astronomica del mondo. E la qualità delle fotografie premiate è strabiliante: aurore, galassie e stelle compongono quadri d'incredibile bellezza e armonia. Il primo premio assoluto quest'anno è andato al fotografo statunitense Brad Goldpaint che, curiosamente, ha voluto includere se stesso nella scena. "Per me, questa superba immagine è emblematica di tutto ciò che significa essere un astrofotografo", ha dichiarato Will Gater, membro della giuria, commentando l'immagine vincitrice. L'equilibrio tra luce e buio, le trame e le tonalità contrastanti di terra e cielo e il fotografo da solo sotto una volta stellata di dimensioni enormi e di una bellezza mozzafiato. immagini vincitrici nelle diverse categorie. |
Post n°2017 pubblicato il 12 Marzo 2019 da blogtecaolivelli
Fonte: Le Scienze 27 novembre 2018 L'intelligenza artificiale in aiuto delle pubblicazioni scientifiche In tutto il mondo sono in via di sviluppo strumenti automatici, basati sull'intelligenza artificiale, per aiutare o addirittura sostituire, gli esperti che effettuano la peer review, la revisione tra pari che rappresenta lo standard per la pubblicazione dei risultati scientifici. Ma negli algoritmi sono nascoste alcune insidie, e sono ancora gli esseri umani a decideredi Douglas Heaven/Nature computer sciencecomunicazione della scienzapolitiche della ricerca La maggior parte dei ricercatori ha buone ragioni per lamentarsi della peer review, o revisione tra pari: richiede tempo ed è soggetta a errori, e il carico di lavoro è distribuito in modo non uniforme, se è vero che solo il 20 per cento degli scienziati gestisce gran parte delle revisioni. (IA) promette ora di migliorare il processo, aumentare la qualità degli articoli pubblicati e far risparmiare tempo ai revisori. strumenti di intelligenza artificiale che coprono l'intero processo, dalla selezione dei revisori al controllo delle statistiche alla sintesi dei risultati di un articolo. che controlla che le statistiche e le metodologie dei manoscritti siano validi, è stato adottato da Aries Systems, un sistema di gestione della peer review di proprietà del colosso editoriale Elsevier. Werner Dieterich/AGFScholarOne, una piattaforma di peer review utilizzata da molte riviste, sta collaborando con UNSILO di Aarhus, in Danimarca, che usa l'elaborazione del linguaggio naturale e l'apprendimento automatico per analizzare i manoscritti. UNSILO estrae automaticamente i concetti chiave per riassumere ciò di cui tratta l'articolo. decidere cosa fare di un manoscritto rimane al redattore della rivista a cui viene sottoposto. più semplice", afferma David Worlock, consulente editoriale del Regno Unito che ha visto una dimostrazione di UNSILO alla Fiera del Libro di Francoforte il mese scorso. manoscritto per estrarre quelle che individua come affermazioni fondamentali. Questo offre una panoramica migliore di un articolo rispetto alle parole chiave che in genere vengono presentate dagli autori, afferma Neil Christensen, direttore vendite di UNSILO. "Troviamo le frasi importanti in quello che hanno effettivamente scritto", dice, "invece di prendere solo ciò che è venuto loro in mente cinque minuti prima di inviare l'articolo". hanno più probabilità di essere argomentazioni o scoperte, offrendo ai redattori una sintesi immediata dei risultati di uno studio. Inoltre, evidenzia se le affermazioni sono simili a quelle di articoli pubblicati in precedenza, il che potrebbe servire a rilevare un plagio o semplicemente a collocare il manoscritto nel contesto di un lavoro correlato a una letteratura più ampia. "Sta solo dicendo: 'Ecco alcune cose che emergono quando si confronta questo manoscritto con tutto ciò che è stato pubblicato prima. La decisione spetta a te". database PubMed Central, che gli consente di confrontare i nuovi manoscritti con il testo completo di 1,7 milioni di articoli di ricerca biomedica già pubblicati, un insieme di dati grande ma comunque limitato. L'azienda ha dichiarato che presto aggiungerà oltre 20 milioni di altri articoli da PubMed. La collaborazione con ScholarOne, di proprietà di Clarivate Analytics di Philadelphia, consentirà di accedere a molti altri ancora, compresi quelli del database Web of Science di Clarivate. Risultati di una ricerca su PubMed, uno dei più importanti database online di articoli biomedici
(Wikimedia Commons)Giuliano Maciocci, che guida un gruppo di innovazione presso la rivista "eLife" a Cambridge, nel Regno Unito, afferma che UNSILO è una soluzione interessante per alcuni dei problemi della revisione tra pari, ma non è uno strumento che "eLife" penserebbe di adottare. "Non siamo del tutto convinti che possa essere particolarmente utile nel contesto di una rivista come la nostra, in cui la cura manuale ed esperta è molto importante", afferma.
strumenti simili. Egli fa parte del consiglio di amministrazione di Wizdom.ai a Londra, una start-up di proprietà degli editori Taylor & Francis, che sta sviluppando software in grado di analizzare database cartacei ed estrapolare connessioni tra discipline e concetti diversi. Questo tipo di strumento, afferma Worlock, sarà utile anche al di là della peer review, per compiti come le domande di finanziamento o le revisioni della letteratura. di rilevatori automatici di plagio. E servizi come Penelope.ai esaminano se i riferimenti e la struttura di un manoscritto soddisfano i requisiti di una rivista. qualità di uno studio. Lo strumento Statcheck, sviluppato da Michèle Nuijten, un metodologo dell'Università di Tilburg nei Paesi Bassi e colleghi, valuta la coerenza dei contenuti statistici degli autori, concentrandosi sui valori p. La rivista "Psychological Science" gestisce tutti i suoi articoli con questo strumento, e Nuijten dice che altri editori sono desiderosi di integrarlo nei loro processi di revisione. pubblicati su riviste di psicologia ha scoperto che circa il 50 per cento conteneva almeno un'incoerenza statistica. In un articolo su otto, l'errore era abbastanza serio da cambiare il significato statistico di un risultato pubblicato. i revisori non vedano quegli errori. "Non tutti hanno il tempo di esaminare tutti i numeri. Ti concentri sui risultati principali o sulla trattazione generale". Werner Dieterich/AGFPer ora, Statcheck si limita all'analisi di manoscritti che seguono i criteri dell'American Psychological Association per riportare le statistiche. della School of Medicine della Wake Forest University, e Chadwick DeVoss, CEO della start-up tecnologica NEX7 - sostengono che lo strumento può valutare le statistiche in formati standard e stili di presentazione di diverse discipline scientifiche. Per riuscirci, controlla che includano correttamente elementi come le dimensioni del campione, le informazioni sulla procedura in cieco per i soggetti del campione e i dati al basale. comportamenti fraudolenti, afferma DeVoss. "Cose come: 'hanno giocato con alcune regole statistiche o hanno messo a posto i dati sotto ogni punto di vista'? Se il rischio è più alto di quello che la rivista è abituata a vedere, si possono esaminare i dettagli". da decine di editori. Una prova del 2017 con l'editore open access BioMed Central di Londra è stata inconcludente perché lo strumento non ha analizzato abbastanza manoscritti, ma ha comunque fornito alcune informazioni importanti (BioMed Central sta pianificando un follow-up). umani, afferma Amy Bourke-Waite, direttore delle comunicazioni per la ricerca aperta presso Springer Nature, che possiede BioMed Central e pubblica "Nature" (il gruppo che si occupa delle news di "Nature" è editorialmente indipendente da Springer Nature). Per esempio, è stato utile per individuare articoli che non soddisfacevano gli standard richiesti, come seguire CONSORT, un format per manoscritto usato da molti editori. partecipato hanno dichiarato di essere felici di rispondere alle relazioni di StatReviewer quanto lo sarebbero stati di farlo con un revisore umano. ma a volte i suoi errori hanno attirato l'attenzione degli autori su cose poco chiare nei loro manoscritti. aspetta che solo alcune riviste saranno disposte a pagare per fare la scansione di tutti i loro manoscritti. Così, lui e i suoi colleghi si stanno rivolgendo agli autori, sperando che usino lo strumento per controllare i loro manoscritti prima di sottoporli alle riviste. sono alcune potenziali insidie. Una preoccupazione è che gli strumenti di apprendimento automatico addestrati su articoli pubblicati in precedenza potrebbero rafforzare i bias esistenti nella peer review. "Se costruisci un sistema decisionale basato sugli articoli che la tua rivista ha accettato in passato, avrai dei bias impliciti", afferma Worlock. complessivo dopo aver valutato un articolo, come fa StatReviewer, i redattori potrebbero essere tentati di non perdere altro tempo e di basarsi semplicemente su quel punteggio per decidere se rifiutare un articolo, spiega DeVoss. da consentire a un redattore di accettare o rifiutare un articolo unicamente sulla base delle informazioni che estraggono, afferma Andrew Preston, co-fondatore di Publons, una start-up di peer-review-tracking acquistata da Clarivate Analytics, che sta utilizzando l'apprendimento automatico per sviluppare uno strumento che consiglia gli esperti da usare come revisori. "Questi strumenti possono assicurarsi che un manoscritto sia all'altezza, ma non sostituiscono in alcun modo le valutazioni che farebbe un revisore". "Ci vorrà un po' di tempo per perfezionare gli algoritmi, ma vale la pena di automatizzare un sacco di cose perché molti elementi della revisione tra pari sono standardizzati". Traduzione ed editing a cura |
Post n°2016 pubblicato il 12 Marzo 2019 da blogtecaolivelli
Fonte: Le Scienze 27 settembre 2018 Scienza dal tramonto all'alba Oltre 200 eventi in Europa e 9 progetti in Italia, che coprono tutta la penisola. Venerdì 28 settembre, per la nuova edizione della Notte europea dei Ricercatori, la scienza scende nelle strade per raccontarsi e av- vicinare i cittadini al lavoro incessante dei suoi ricercatori. eventicomunicazione della scienza Venerdì 28 settembre si fanno le ore piccole per parlare di scienza. iniziativa promossa dalla Comunità Europea dal 2005, e che coinvolge migliaia di istituzioni e ricercatori in tutta Europa. Per quel che riguarda l'Italia, questa edizione si presenta ricca di eventi che si svolgono in contemporanea in 116 città, con più di 600 iniziative dedicate a grandi e piccini. Patrimonio Culturale 2018, ben 38 siti del nostro patrimonio culturale diventano palcoscenico della ricerca scientifica. sibilità di diventare investigatori sulla scena del crimine, "cacciatori" di pipistrelli seguendo gli ultrasuoni, scienziati che compiono esperimenti con bolle di sapone, studiano il DNA e la struttura tridimensionale delle proteine. Strade e piazze si riempiono di gente che segue dibattiti con personaggi famosi, ascolta concerti e assiste a spettacoli teatrali, tutte dimostrazioni per avvicinare il grande pubblico al lavoro dei ricercatori. (SHaring Researchers' Passions for Evidences and Resilience) punta a format di comunicazione specifici per platee diverse con l'intento di condividere in modo efficace il sapere della ricerca. alle due ore di diretta radio, ma è anche musiche e passeggiate nel bosco, laboratori sulla salute e test proposti dai ricercatori. Tanti gli eventi anche a Macerata. A Perugia, oltre che il centro storico, si animerà anche la Nuova Monteluce,ex ospedale cittadino, che ospiterà attività di medicina, ingegneria, archeologia e cultura digitale. compreso il lancio del "Manifesto per la comunica- zione della Scienza" con l'invito a riflettere sull'uso di parole ostili nella comunicazione scientifica, un labirinto per conoscere il diabete, una caccia al tesoro per le strade cittadini e dibattiti sulla fisica delle particelle. i temi più discussi degli ultimi anni nel campo della scienza, un percorso tra esperimenti di fisica delle particelle e struttura della materia. La Cappella San Severo di Napoli diventa un laboratorio per mostrare le moderne tecniche di analisi delle opere d'arte mentre nella Galleria Borbonica, grazie alle tecniche della radiografia muonica, si va in cerca di camere segrete. ma soprattutto un viaggio nella branca più spettrale della fisica alla scoperta dei segreti del nostro Universo utilizzando le tecnologie più avanzate, questo quanto proposto a Caserta, con tanti appuntamenti tra piazze e strade. fisico uniti per svelare i segreti di ricette impossibili con uno spazio per la degustazione della cucina molecolare. Ma nel programma della serata anche scudi spaziali e fenomeni naturali come i terremoti e le loro conseguenze un trekking scientifico a tappe e un evento dedicato ad "Alimentazione e longevità in Sardagna", per conoscere i motivi che hanno portato la Sardegna ad avere una così alta incidenza di centenari. Un po' più al Nord, a Nuoro, per il 28 è previsto un viaggio tra le stelle al Planetario, alla scoperta del sistema solare. Ma anche la conoscenza dei droni e le loro applicazioni, e una serie di progetti di pubblica utilità. A Palermo, capitale della cultura 2018, viaggi nella scena del crimine e all'interno del corpo umano, ma anche un'immersione nella luce, dalle nanotecnologie al fotovoltaico, la biodiversità degli oceani e l'utilizzo dei rifiuti. A Catania, invece, la Scienza si scopre in metro, tra le stazioni Milo e Giovanni XXIII, spettacoli, talk divulgativi, giochi e dimostrazioni scientifiche. Neuromed e si tiene in due regioni, Molise e Campania, dove sono i due centri di ricerca. Ispirazione dell'edizione di quest'anno è il mitico film "Ritorno al futuro" e l'intento quello di avvicinare bambini, studenti, adulti ai ricercatori, dando la possibilità di scambiare opinioni e scoprire insieme i programmi europei e internazionali in cui l'Italia è coinvolta. Con la Rete degli IRCCS (Istituti di Ricovero e Cura a Carattere Scientifico) gli eventi si sono estesi a tutta la penisola. (Qui il programma). lanciare BEES, BE a citizEn Scientist, incontri a tema, conferenze, quiz, aperitivi scientifici per la tredicesima edizione della Notte Europea dei Ricercatori. Oltre alla cittadina dei Castelli romani e a Roma, del progetto fanno parte moltissime città, dal nord al sud, isole comprese. A Frascati eventi per i più piccoli, con laboratori e giochi scientifici, teatri che diventano sale operatorie ma anche per il grande pubblico e ai grandi divulgatori scientifici, come Piero Angela. Nel progetto coinvolte anche Alghero, Carbonia, Torino, Gaeta, Pompei, Ravenna e tante altre città. (Brilliant Researchers Impact on Growth Health and Trust in research) è invece il programma toscano alla scoperta della scienza: miniconferenze, incursioni musicali, incontri sulla salute e tanto altro a Firenze, mentre Grosseto focalizza l'attenzione sull'alimentazione, la dieta paleolitica, la qualità degli alimenti, a tavola con i romani. E poi ancora osservazioni astronomiche, le "abitudini" dei composti chimici, la plastica, le misure antidoping nello sport, musei aperti ed evoluzioni sinfoniche a Firenze. Tutto il programma, che vede eventi a Portoferraio, Siena, Pontedera, lo scoprite qui. coinvolgendo Bari, Brindisi, Foggia, Lecce, Taranto, Castellana Grotte. Gli argomenti trattati spaziano dalla biosfera al mondo subatomico, dai materiali per la sostenibilità all'archeologia. Tutti vengono chiamati ad essere protagonisti, invitati a visionare dal vivo o cimentarsi in prima persona. Uno spazio particolare quello dedicato alle Donne nella scienza. rappresenta un'occasione unica per l'incontro con la scienza in Lombardia e in Campania. Il mondo della ricerca esce dall'università e arriva nelle strade. Giochi di ruolo, talk divulgativi, visite guidate gratuite ai musei civici, croiezioni di film e concerti si sviluppano attorno alle cinque grandi aree tematiche della ricerca: "Scienza e Tecnologia", "Cultura e Società", "Ambiente", "Salute" e "Patrimonio Culturale", in un programma completo, interessante e divertente. Milano, Monza, Brescia e Napoli le città principali coinvolte. Qui il programma
vede in prima linea per la scienza Bologna, Cesena, Forlì, Ravenna e Rimini. Botanica e olfatto, astronomia, intelligenza artificiale e tanto altro a Bologna. Nelle altre città si parlerà di robot e vino, di statistica e ambiente, l'architettura digitale e le microplastiche. Il programma completo "SuperScienceMe: REseArCH in your REACH", un giorno di festa e di didattica, con eventi, spettacoli, esperimenti. Da Reggio Calabria a Vibo Valentia, Cosenza, Catanzaro, Crotone e tante altre città che trovate qui. |
AREA PERSONALE
MENU
CHI PUÒ SCRIVERE SUL BLOG
I messaggi e i commenti sono moderati dall'autore del blog, verranno verificati e pubblicati a sua discrezione.