blogtecaolivelli
blog informazione e cultura della biblioteca Olivelli
TAG
TAG
Messaggi del 28/02/2019
Post n°1993 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Internet Comunicato stampa - Si chiama 'bronzeo' una nuova linea di pomodoro che contiene una combinazione unica di polifenoli in grado di migliorare i sintomi delle patologie infiammatorie dell'intestino. Lo studio, condotto dall'Istituto di scienze delle produzioni alimentari del Cnr, è stato pubblicato sulla rivista Frontiers in Nutrition Roma, 28 febbraio 2018 - Più di 2.2 milioni di Europei e 1.5 milioni di Americani soffrono di infiammazioni croniche intestinali, per le quali, ad oggi, non esiste una cura. I polifenoli, una famiglia di metaboliti secondari derivati dalle piante, possono rappresentare una valida strategia terapeutica per la cura dei sintomi di tali patologie. Da una ricerca dell'Istituto di scienze delle produzioni alimentari del Consiglio nazionale delle ricerche (Ispa-Cnr), unità di Lecce, in collaborazione con Cathie Martin ed Eugenio Butelli del John Innes Centre, Norwich e con Marcello Chieppa dell'Irccs 'S. De Bellis' di Castellana Grotte (Ba), emerge che una giusta combinazione di polifenoli può attenuare i sintomi dell'infiammazione intestinale. Lo studio è stato pubblicato sulla rivista Frontiers in Nutrition. la giusta combinazione e le giuste quantità attraverso la dieta dovremmo assumerne una varietà e quantità elevatissime", spiega Angelo Santino dell'Ispa-Cnr coordinatore dello studio. "Nei nostri laboratori siamo riusciti ad ottenere, attraverso un approccio di ingegneria metabolica, una linea di pomodori, che abbiamo chiamato 'bronzeo' per il colore metallico e bronzato della loro buccia, che contengono una combinazione unica di polifenoli. Si tratta, in particolare di flavonoli, antocianine e stilbenoidi la cui azione sinergica è stata valutata in topi affetti da infiammazione cronica intestinale". questa combinazione di polifenoli è in grado di migliorare i sintomi dell'infiammazione intestinale", sottolinea Aurelia Scarano dell'Ispa-Cnr. "Tra gli effetti benefici riscontrati, abbiamo osservato un miglioramento nella composizione del microbiota, con arricchimento in batteri lattici positivi e una riduzione sia nel contenuto di sangue nelle feci sia nella secrezione di fattori infiammatori". pomodoro 'bronzeo' sulle infiammazioni intestinali siano paragonabili a quelli di 5 Kg di uva rossa, notoriamente ricca in polifenoli", conclude Giovanna Giovinazzo dell'Ispa-Cnr. consentirà di ottenere in futuro alimenti funzionali arricchiti in specifici elementi fitochimici e dall'elevato potere nutrizionale che potranno essere utilizzati per la prevenzione e come adiuvanti nella terapia di importanti patologie croniche umane. |
Post n°1992 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Le Scienze 14 novembre 2017 Otto giare ritrovate in un sito archeologico in Georgia e risalenti al 6000 avanti Cristo circa portano tracce del loro antico contenuto: vino. La scoperta, insieme a prove della coltivazione della vite, retrodata di 600-1000 anni la nascita della cultura del vino(red) archeologiaagricolturaalimentazione La più antica testimonianza della cultura del vino risale al 6000-5800 a.C. ed è venuta alla luce grazie agli scavi in due siti archeologici della Georgia, Gadachrili Gora e Shulaveris Gora, circa 50 chilometri a sud della capitale Tbilisi. Il sito di Gadachrili Gora. (Cortesia Stephen Batiuk) La scoperta è di un gruppo di ricercatori del Museo nazionale della Georgia e dell'Università della Pennsylvania - in collaborazione anche con l'Università degli studi di Milano e il Museo lombardo di storia dell'agricoltura a Sant'Angelo Lodigiano - che firmano un articolo sui "Proceedings of the National Academy of Sciences" sono state identificate nel 2004 nel sito di Jiahu, nella valle del Fiume Giallo in Cina, e risalgono addirittura al 7000 a.C., non provenivano esattamente da ciò che intendiamo per vino, ma da una bevanda fermentata prodotta da uva selvatica, frutti di biancospino, riso e miele.
di vino risaliva al 5400-5000 a.C. ed era costituita da reperti provenienti da Hajji Firuz Tepe, un villaggio neolitico nella parte più settentrionale dei monti Zagros, in Iran. La scoperta attuale retrodata dunque di almeno 600-1000 anni la coltivazione dell'uva a fini di vinificazione. Durante gli scavi di Gadachrili Gora e Shulaveris Gora, sono venuti alla luce i frammenti di una serie di vasi di ceramica, che sono stati analizzati per accertare la natura dei residui conservati all'interno. In otto giare sono state trovate tracce di sostanze chimiche - in particolare acido tartarico, malico, succinico e citrico - che indicano l'antica presenza di vino. archeologici, botanici, climatici e al radiocarbonio che dimostrano che la vite eurasiatica Vitis vinifera, molto abbondante intorno ai due siti, era oggetto di coltivazione. All'inizio del Neolitico, osservano i ricercatori, le condizioni ambientali erano ideali per quella pianta, ed erano molto simili a quelle delle odierne regioni vinicole italiane e della Francia meridionale. adattamenti allo stile di vita neolitico che si stava diffondendo nell'area caucasica è stata la viticoltura", ha detto Stephen Batiuk, coautore dello studio. "La domesticazione dell'uva ha portato alla fine alla nascita di una cultura del vino nella regione". |
Post n°1991 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
11 aprile 2018 Maiali resistenti alla peste suina, polli immuni all'influenza aviaria, mucche adattate alle regioni tropicali. Sono alcuni dei progetti in corso per l'applicazione delle nuove tecniche di editing genomico alla zootecnia, rimasta finora ai margini dell'ingegneria genetica per questioni regolatorie e per la diffidenza dei consumatori. Riuscirà CRISPR a superare questi ostacoli, aprendo la strada a sviluppi che potrebbero rivoluzionare anche il benessere degli animali?di Anna Meldolesi/CRISPerManiSe sentiamo la parola OGM, di solito pensiamo alle piante, non agli animali. Negli ultimi 20 anni, infatti, il settore zootecnico ha dovuto rinunciare al contributo dell'ingegneria genetica per le incertezze regolatorie prima ancora che per la diffidenza del mercato. A conti fatti c'è un solo animale transgenico venduto a scopo alimentare in un solo stato del mondo (il salmone a crescita rapida AquAdvantage, approvato in Canada dopo ben due decenni di attesa), mentre le piante transgeniche sono coltivate su oltre 180 milioni di ettari in più di venti paesi. alle stalle: riusciranno a entrare? Ci sperano al Roslin Institute, il centro scozzese che ha dato i natali a Dolly e ora si serve di CRISPR per rendere i maiali resistenti alla sindrome riproduttiva e respiratoria PRRSV. Questa malattia è la più dannosa a livello globale per la suinicoltura ed è causata da un virus. Una volta identificato il recettore usato dal patogeno come porta di ingresso per infettare le cellule, i ricercatori hanno provveduto a bloccarlo rimuovendo un pezzetto del gene che lo codifica. Se tutto andrà come previsto, ora il tratto sarà introdotto negli animali scelti per la riproduzione da una società specializzata in breeding dei suini (Genus PIC). La direttrice del Roslin, Eleanor Riley, si augura che entro 5 anni questi animali potranno ottenere il via libera per debuttare in fattoria.
maiali resistenti alla peste suina africana, i polli immuni all'influenza aviaria, i bovini migliorati per aumentare la produzione di latte nelle aree tropicali. Per quest'ultimoprogetto, illustrato su"Foreign Affairs" da Bill Gates, gli scienziati del Centre for Tropical Livestock Genetics and Health dell'Università di Edimburgo hanno avviato collaborazioni in Etiopia, Kenia, Nigeria e Tanzania. L'idea è di concentrarsi sui geni che rendono tanto produttiva la razza Holstein usata nei grandi allevamenti dei climi temperati e di correggere di conseguenza il genoma delle vacche tropicali. Oppure di modificare le Holstein per renderle più adatte alle condizioni ambientali africane. stagione biotech sono le Holstein private delle corna per via genetica anziché chirurgica, come si fa normalmente per evitare che gli animali si feriscano tra loro. Questa applicazione dell'editing genetico potrebbe piacere sia agli allevatori che agli animalisti più pragmatici, perché riduce la sofferenza degli animali. A ostacolarne la diffusione però, non solo nella sospettosa Europa ma anche negli Stati Uniti, potrebbero essere gli intralci burocratici. Per una serie di incongruenze di origine storica, infatti, gli animali editati ricadono sotto l'attenta supervisione della Food and Drug Administration, come i farmaci, mentre delle piante editate si occupa, in modo meno oneroso, il Dipartimento dell'agricoltura. Se questa disparità dovesse permanere, sostiene un'analisi pubblicata sull'ultimo numero del "CRISPR Journal", il settore zootecnico di fatto faticherà a entrare nell'era CRISPR perché soddisfare la sovraregolamentazione imporrebbe tempi e costi proibitivi. dall'Argentina: regolamentare gli animali editati come le piante editate, esonerando dai controlli più pesanti i prodotti in cui la correzione genetica non ha richiesto l'inserzione di materiale genetico estraneo. convenzionale non è formalmente regolamentato ma non è di per sé più benevolo, anzi nel corso del tempo ha portato allo sviluppo di fenotipi estremi grazie alla selezione di mutazioni spontanee. Il benessere degli animali, dunque, non dipenderà da un sì o da un no all'uso di CRISPR, ma da come decideremo di usare le tecnologie vecchie e nuove. dal punto di vista categoriale, ma portando questi temi sotto i riflettori può sollecitarci a ripensare il tipo di rapporto che vogliamo avere col mondo animale", ci ha detto Simone Pollo della Sapienza di Roma. "Se poi CRISPR favorisse lo sviluppo della coltivazione in vitro della carne, questa sì che sarebbe una rivoluzione per l'etica", ha aggiunto il bioeticista, autore per Carocci del saggio Umani e animali. nel blog CRISPerMania l'11 aprile 2018. Riproduzione autorizzata, tutti i diritti riservati.) |
Post n°1990 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
16 ottobre 2018 Nei prossimi decenni molto probabilmente ondate di calore e periodi di siccità porteranno a una riduzione delle rese di orzo con conseguente calo della produzione di birra e aumento dei prezzi di questa bevanda alcolica. L'impatto sul mercato però non sarà uniforme ma varierà parecchio da paese a paese(redIn seguito ai cambiamenti climatici, da qui alla fine del secolo la produzione globale di orzo rischia di diminuire dal 3 al 17 per cento in media, a seconda di quello che sarà l'aumento reale delle temperature globali. E questa diminuzione si ripercuoterà in maniera ancora più significativa sul prezzo e sul consumo di birra, la bevanda alcolica più consumata al mondo. A sostenerlo è uno studio previsionale effettuato da ricercatori dell'Università di Pechino e dell'Università della California a Irvine, che firmano un articolo su "Nature Plants". mondo, non erano ancora state sviluppate previsioni accurate sulle sue rese in un mondo in cui aumentano ondate di calore ed episodi di siccità; tanto meno sull'impatto della riduzione delle rese sul mercato della birra, che a livello globale assorbe circa un terzo di tutta la produzione di orzo, sia pure con differenze assai grandi da paese a paese. I modelli elaborati da Wei Xie, Steven J. Davis e colleghi hanno esaminato l'effetto sulle rese dell'orzo dei quattro possibili scenari di cambiamento climatico previsti dall'Intergovernmental Panel on Climate Change (IPCC), per poi calcolare la presumibile ricaduta su produzione, consumo e prezzo della birra. Questa ricaduta non sarà uniforme nei diversi paesi, dipendendo da svariati fattori, a partire dalla destinazione d'uso prevalente dell'orzo prodotto, che in molte nazioni è impiegato in gran parte come mangime per animali. è invece generalmente molto piccola, con le vistose eccezioni dell'India (77 per cento), dei paesi africani (40 per cento, con l'esclusione del Sudafrica) edi parte del Sud America (17 per cento). In un numero elevato di paesi è quindi presumibile che questi usi, considerati prioritari, sottrarranno materia prima alla filiera della birra. nei differenti paesi è poi influenzato fortemente dall'importanza della bevanda nelle diverse culture e dalla disponibilità a spendere di più per averla; così i maggiori aumenti di prezzo si concentreranno in paesi relativamente ricchi e storicamente amanti della birra. Quindi, in paesi come l'Irlanda, dove attualmente si consumano in media 276 lattine da mezzo litro pro capite all'anno, si prevede che nello scenario climatico peggiore la diminuzione delle rese dell'orzo possa portare a un aumento dei prezzi del 193 per cento e a un calo dei consumi di 81 latine pro capite all'anno. consumi si avrebbe comunque nei tre principali paesi produttori e consumatori di birra: Cina, Stati Uniti e Germania. |
Post n°1989 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
30 ottobre 2018 La prima domesticazione della pianta delcacao risale a 5300 anni fa e fu opera dei Mayo-Chinchipe, popolazioni amazzoniche dell'Ecuador sud-orientale. La scoperta smentisce l'ipotesi finora prevalente, che attribuiva il primato a popoli dell'America centrale, dove invece la pianta arrivò quasi 1500 anni dopo(red)piantearcheologiaalimentazione La domesticazione della pianta del cacao (Theobroma cacao) e il suo uso a fini alimentari risale ad almeno 5300 anni fa, e fu realizzata dalle popolazioni amazzoniche dell'Ecuador sud-orientale, e non in America centrale, come finora ritenuto. base del cioccolato - che muove un mercato di oltre 120 miliardi di dollari all'anno ed è il prodotto dolciario più apprezzato al mondo - va dunque anticipata di oltre 1400 anni. A dimostrarlo è stata una ricerca condotta da un gruppo internazionale di archeologi e genetisti, che firmano un articolo pubblicato su "Nature Ecology and Evolution". per la prima volta in America centrale circa 3900 anni fa si basava sulla ricchezza di prove archeologiche, etnografiche e iconografiche che testimoniano la grande importanza, sia rituale che alimentare, attribuita a questo alimento dalle popolazioni di quell'area. dimostrato che la maggiore diversità genetica della pianta - ben superiore a quella presente in America centrale - si trova nelle foreste umide della regione degli affluenti del Rio delle Amazzoni superiore. Pianta di Theobroma cacao nella foresta ecuadoriana (© Science Photo Library / AGF=I n questa zona - nella regione compresa fra i fiumi Chinchipe e Marañón - si era sviluppata, a partire da 5450 anni fa la cultura Mayo-Chinchipe, che solo di recente ha iniziato a essere studiata con attenzione, ed è caratterizzata dalla costruzione anche di edifici in pietra e da un fiorente artigianato della ceramica. alla luce nel 2002 nel sito di Santa Ana-La Florida, e risalenti a 5500-5300 anni fa, Sonia Zarrillo, Claire Lanaud e colleghi hanno ora ritrovato al loro interno microscopicigrani di un amido tipico di Theobroma; residui di teobromina, un alcaloide amaro presente nei semi di Theobroma cacao, ma non nei suoi parenti selvatici; e frammenti di DNA antico con sequenze uniche diT. cacao, sequenze per di più molto simili a quelle della cultivar Criollo, che discende direttamente dalla varietà coltivata dai Maya e da altre popolazioni precolombiane del Centro America. confermata anche dall'analisi dei danni al DNA riscontrati nei residui organici. commerciali fra le popolazioni Mayo-Chinchipe dell'interno con quelle della cultura di Valdivia - una delle più antiche del Sud America, fiorita sulla costa del Pacifico dell'Ecuador - gli autori ipotizzano che questa sia stata la prima tappa del lungo viaggio che avrebbe poi portato il cacao in America centrale. |
Post n°1988 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
fonte: Le Scienze Cresce l'interesse per la carne coltivata in laboratorio Negli ultimi anni, diverse aziende hanno investito decine di milioni di dollari nello sviluppo della cosiddetta "carne pulita", come è spesso chiamata l a carne ottenuta in laboratorio a causa del suo carattere ecologico ed etico. Tuttavia, malgrado l'aumento di interesse, ci sono ancora vari ostacoli tecnici, dovuti in parte alla carenza di ricerche scientifiche non coperte dal segreto commercialedi Elie Dolgin / Nature alimentazionebiologiatecnologia Gli investimenti privati nella carne prodotta in laboratorio sono in forte crescita, e le aziende inseguono la promessa di polpette, bistecche e hamburger coltivati in vitro invece che ottenuti da bestiame d'allevamento. Negli ultimi due anni, le start-up per la "carne pulita" hanno rastrellato decine di milioni di dollari da miliardari come Bill Gates e Richard Branson, e dai giganti dell'agricoltura Cargill e Tyson. carne prodotta in laboratorio sono rimasti indietro, e alcuni ricercatori dicono che è assolutamente necessaria. sviluppo di una carne ecologica ed eticamente corretta, i critici sostengono che l'industria non possiede gran parte delle competenze scientifiche e ingegneristiche necessarie per portare la carne prodotta in laboratorio alle masse. Inoltre, i progressi compiuti dalle aziende commerciali sono spesso protetti dal segreto commerciale. dice Paul Mozdziak, un biologo esperto in strutture muscolari della North Carolina State University a Raleigh, che studia la carne di pollo e tacchino prodotta in laboratorio. e di mezzi nutritivi per alimentarle, di materiali "da impalcatura" che aiutino a trasformare le cellule coltivate in tessuto, e una piattaforma per i bioreattori necessari alla produzione di carne su larga scala. spinta il 6 febbraio, quando il Good Food Institute (GFI) - un think-tank di Washington DC che promuove alternative alla carne convenzionale - ha annunciato i vincitori del suo primo programma di sovvenzioni. I 14 progetti vincitori si divideranno 3 milioni di dollari: 6 di essi sono dedicati allo sviluppo della carne di l aboratorio e 8 che si concentrano sulle proteine vegetali. Ogni gruppo riceverà fino a 250.000 dollari in due anni. ricerca sull'agricoltura cellulare", dice Kate Krueger, direttrice della ricerca alla New Harvest, un'organizzazione no-profit di New York City che nell'ultimo decennio ha contribuito con quasi un milione di dollari agli studi accademici sulla ricerca sulle carni pulite.
è lo sviluppo di linee cellulari pubblicamente disponibili derivate dai muscoli di mucche, maiali, pesci e altri comuni animali da alimentazione. Senza quelle cellule, i ricercatori devono ottenere tessuti freschi dai macelli o condurre i loro esperimenti con cellule di topo. Il Norwegian Center for Stem Cell Research di Oslo prevede di usare una sovvenzione del GFI per aiutare a costruire il suo Frozen Farmyard, un deposito di linee cellulari di rilevanza agricola. decenni di ricerca nel campo della medicina rigenerativa. Angeles, che normalmente studia la biomeccanica delle cellule tumorali, sta cercando di progettare impalcature su cui possano crescere combinazioni di diversi tipi di cellule bovine allo scopo di permettere la marmorizzazione del grasso nelle bistecche coltivate in laboratorio. AGF"Si tratta degli stessi principi di base dell'ingegneria tissutale", dice Andrew Stout, un membro della New Harvest e specializzando alla Tufts University a Medford, in Massachusetts. "Ma dobbiamo iniziare a pensare ai vincoli di progettazione da una prospettiva alimentare e di sostenibilità". che sperano di vedere un maggior numero di scienziati dedicarsi a queste ricerche. L'industria ha bisogno di "approcci innovativi alla produzione biologica ad alto rendimento di carne a base di cellule", dice Nicholas Genovese, direttore scientifico della Memphis Meats a Berkeley. "La ricerca accademica può svolgere un ruolo significativo e duraturo nell'accelerare il cammino verso il mercato". risalgono a decenni fa. Negli anni novanta, il ricercatore e imprenditore olandese Willem van Eelen raccolse fondi per la ricerca da investitori privati, ottenendo il primo brevetto per una carne pulita. In seguito convinse il governo olandese a concedere 2 milioni di euro a un consorzio di scienziati interessati a portare avanti il lavoro. dell'Università di Maastricht, a presentare al mondo nel 2013 il primo hamburger coltivato in laboratorio, al costo di 250.000 euro. perché i legislatori olandesi diedero la priorità alla ricerca di fonti proteiche vegetali più economiche, come le farine di fagioli e le proteine dei piselli, dice Post, che da allora ha fondato a Maastricht l'azienda di tecnologia alimentare Mosa Meat. E a parte alcune occasionali sovvenzioni pilota, come quella della NASA alla fine degli anni novanta per lo sviluppo di carne di pesce in vitro, poche agenzie governative hanno investito cifre significative in questa ricerca, in gran parte - dicono gli esperti - perché è rischiosa, complessa e interdisciplinare. finanzia la maggior parte delle ricerche sull'ingegneria tissutale, ma si concentra sulle applicazioni biomediche; il Dipartimento dell'agricoltura finanzia la maggior parte degli studi di scienza alimentare, ma spende poco per la carne coltivata in laboratorio. "E' una terra di mezzo", dice Amit Gefen, bioingegnere all'Università di Tel Aviv, in Israele, che sta cercando di coltivare carne di pollo su impalcature create spogliando la polpa di mela delle sue cellule. In alcuni paesi, le opportunità di finanziamento stanno lentamente cominciando a spuntare. L'Israel Innovation Authority finanzia la start-up Aleph Farms, il cui lavoro si basa sulla ricerca dell'ingegnere biomedico Shulamit Levenberg al Technion-Israel Institute of Technology ad Haifa. L'IIA sta mettendo a disposizione più di 100 milioni di shekel (27,7 milioni di dollari) in otto anni per creare un incubatore tecnologico alimentare che concorra a sostenere molti altri spin-off universitari di questo tipo.
pulite hanno già ridotto i costi di produzione. Post dice di poter produrre un hamburger da 140 grammi per 500 euro. Secondo Levenberg la sua azienda può coltivare una piccola bistecca per circa 50 dollari. prezzi, alcuni scienziati contestano che la ricerca di base nella coltivazione della carne sia carente. gli esseri umani e con i topi e la trasferiamo nelle cellule bovine", dice Yaakov Nahmias, ingegnere biomedico all'Università ebraica di Gerusalemme, e amministratore delegato della Future Meat Technologies, una start-up israeliana. "Non sono così sicuro che stiamo ancora parlando di scienze di base." generazione, c'è spazio per miglioramenti, dice Ido Savir, amministratore delegato della SuperMeat a Rehovot, Israele. Le prime carni coltivate in laboratorio saranno più simili a quelle che si trovano nei fast food che nell'alta cucina, osserva Ido Savir. Quel primo gruppo aiuterà a "gettare le basi per una nuova industria", ma quello che serve, dice Savir, è "creare un nuovo campo scientifico". "Nature" il 6 febbraio 2019. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati.) |
Post n°1987 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Internet 11 maggio 2018 La capacità di fare generalizzazioni a partire da singole esperienze è essenziale per la sopravvivenza, ma se la generalizzazione è sbagliata - troppo ampia o troppo limitata - può avere l'effetto contrario. Una nuova teoria sui fondamenti di questa capacità, perfezionando modelli precedenti, potrebbe permettere di applicarla in modo corretto anche nei sistemi di intelligenza artificiale(red) comportamentopsicologiacomputer science Un nuovo modello matematico della nostra capacità di generalizzare a partire dalle esperienze è stato proposto da Chris R. Sims, ricercatore del Rensselaer Polytechnic Institute a Troy, nello stato di New York, in un articolo pubblicato su "Science". Lo studio si inserisce nel filone delle ricerche per rendere sempre più accurati gli algoritmi usati nell'intelligenza artificiale e in particolare nell'apprendimento automatico. per la sopravvivenza. Per esempio, se un uccello mangia una farfalla velenosa o sgradevole, imparerà rapidamente a evitare tutti gli insetti che le assomigliano. due specie di farfalle esattamente uguali. Se la generalizzazione è troppo limitata, l'uccello continuerà a consumare farfalle tossiche. Se invece la generalizzazione è troppo ampia, portandolo a evitare tutte le farfalle, si priverà i nutilmente di una fonte alimentare, riducendo la propria fitness, ossia la capacità adattativa all'ambiente. © Biosphoto / AGFNel 1987 lo psicologo cognitivista Roger N. Shepard propose quella che chiamò "legge universale di generalizzazione", secondo cui la probabilità che la risposta a uno stimolo sia generalizzata a un altro stimolo diminuisce in base a una funzione esponenziale della loro distanza all'interno di un appropriato "spazio psicologico". distanza fra due stimoli è stato possibile testare la validità della legge di Shepard. Tuttavia, pur funzionando bene in molte situazioni, questi modelli i ncontrano delle difficoltà via via che lo stimolo è più complesso e l'ambiente è "rumoroso",ossia fonte di possibili fattori che confondono: un difetto che diventa particolarmente evidente negli algoritmi utilizzati nei sistemi di intelligenza artificiale. (Basti pensare agli algoritmi di Facebook che cancellano un'immagine di nudo generalizzandola come pornografica anche se magari è la Primavera di Botticelli). della legge universale di generalizzazione che parte da una prospettiva differente. In particolare, dimostra che la forza della generaliz- zazione è strettamente legata al costo dell'errore percettivo che può provocare: per esempio, portando l'uccello a considerare velenosa la farfalla mentre è commestibile, o al contrario a ritenerla innocua quando lo è. sul cosiddetto principio di codifica efficiente, secondo il quale - date alcune limitazioni, come la quantità di memoria disponibile e l'incertezza nelle informazioni sensoriali - i sistemi biologici sono ottimizzati per impiegare le minori risorse di elaborazione possibile per ottenere le massime prestazioni. In parole povere, per ottenere il massimo del risultato al minimo del costo. dovrebbe essere possibile far compiere un ulteriore salto di qualità agli algoritmi usati nei sistemi di intelligenza artificiale, mettendoli in grado di effettuare generalizzazioni corrette. |
Post n°1986 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
27 aprile 2018 Tre studi pubblicati su "Science" segnano un punto di svolta per lo sfruttamento dell'entanglement a fini pratici: questo fenomeno quantistico è stato dimostrato per un gra scienceGli esperti già la chiamano la seconda rivoluzione quantistica. Dopo la prima grande stagione di scoperte pionieristiche dei primi decenni del Novecento e le conoscenze seguite per tutto un secolo, i tempi sembrano maturi per applicare queste conoscenze a fini pratici, nelle tecnologie del calcolo automatico, delle telecomunicazioni e dei sensori. La svolta arriva da una sempre maggiore capacità di manipolare e controllare gli oggetti del micromondo con un'elevata precisione e stabilità nel tempo. La riprova di questa nuova fase delle applicazioni quantistiche si può avere sfogliando le pagine di "Science" che questa settimana pubblica ben tre articoli sull'argomento, frutto di altrettante ricerche indipendenti. Cuore della ricerca, in tutti e tre i casi, è lo sfruttamento del fenomeno quantistico
dell'entanglement. preparazione sperimentale, di mettere in correlazione tra loro gli stati quantistici di sistemi microscopici, siano essi fotoni, atomi o altre particelle. Ora, questa correlazione ha una caratteristica straordinaria, che non mancò di sconvolgere molti grandi fisici tra cui Albert Einstein: se si conduce una misurazione quantistica su una delle due particelle, questa fa "collassare" lo stato della particella su un dato valore. E corrispondentemente, fa collassare lo stato della seconda particella su un altro valore, correlato al primo. sistemi quantistici avviene in modo istantaneo, anche se apparentemente non c'è stata alcuna comunicazione tra i due. E il dato ancora più sorprendente è che il fenomeno vale anche se tra le due particelle viene interposta una distanza arbitraria, al punto che a questa comunicazione istantanea è stato attribuito un nome mutuato dalla fantascienza: teletrasporto quantistico. Illustraizone dell'entanglement tra due particelle (Science Photo Library RF / AGF) Dopo molti decenni di riflessioni teoriche su come avrebbe potuto manifestarsi, il teletrasporto quantistico è stato dimostrato sperimentalmente a partire dalla fine degli anni novanta, con sistemi microfisici sempre più vari e sempre più complessi, tanto da alimentare una serie di studi su come sfruttare il teletrasporto, per esempio, per far comunicare tra loro le unità di base di un ipotetico computer quantistico, in cui sistemi di dimensioni atomiche o molecolari possono sostituire i componenti elettronici dei computer convenzionali. ricerca è che l'entanglement è una proprietà estremamente delicata e volatile. La sua generazione richiede operazioni estrema- mente precise e livelli di rumore molto bassi. Ci sono generalmente due approcci per l'entanglament. Il primo richiede la capacità di controllare ciascuna particella e di metterla in entanglement con un'altra con interazioni appropriate. Usando questa strategia, i fisici sono riusciti, per esempio, a realizzare stati entangled di un massimo di 10 fotoni e 20 ioni. Il secondo approccio riguarda il confinamento delle particelle e l'applicazione di operazioni globali controllate al fine di farle interagire collettivamente ed evolvere in uno stato entangled. di atomi nei condensati di Bose-Einstein, uno stato di materia mantenuto a temperature estremamente basse in cui tutti gli atomi si comportano collettivamente come se fossero un'unica entità fisica. In questo secondo caso, il numero di particelle coinvolte è enorme ma la mancanza di controllo sulle singole entità implica che si tratta di un approccio difficilmente applicabile ai compiti di informazione quantistica. secondo approccio dimostrando un passo importante verso un maggiore controllo sull'entanglement che viene prodotto. In ciascun caso gli autori hanno prodotto una nube di atomi ultrafreddi e li hanno successivamente separati, dimostrando poi l'esistenza dell'entanglement tra le due nubi più piccole seguendo tre approcci diversi. in Svizzera, e colleghi, hanno utilizzato alcune centinaia di atomi di rubidio-87. in Germania, e colleghi, autori del secondo articolo, hanno utilizzato un campione di ben 20.000 atomi di rubidio-87, riuscendo a indurre l'entanglement su circa 5000. Heidelberg, in Germania, e colleghi, hanno utilizzato sempre atomi di rubidio-87 arrivando a 11.000 atomi tutti entangled. condensati di Bose-Eistein nella generazione e nella rilevazione dell'entanglement con campioni di atomi di diverse dimensioni, da alcune centinaia a diverse migliaia. Al di là degli aspetti tecnici, si tratta di una pietra miliare per le possibilità applicative. |
Post n°1985 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
12 gennaio 2018 Comunicato stampa - In una ricerca dell'Iia-Cnr, pubblicata sulla rivista Scientific Reports del gruppo Nature, reti di neuroni artificiali - che apprendono il funzionamento del sistema climatico dai dati osservati nel passato - confermano le azioni umane come causa principale del riscaldamento globale recente e conducono a nuove scoperte sui cambiamenti climatici dell'ultimo secolo computer sciencetecnologiaclima Roma, 12 gennaio 2018 - Le applicazioni dell'intelligenza artificiale (IA), sia in ambito scientifico che tecnologico, sono molto numerose. Pochi, tuttavia, si aspetterebbero che l'IA possa aiutarci a comprendere le origini di un problema attuale e pressante come quello dei cambiamenti climatici. Una ricerca recente dell'Istituto sull'inquinamento atmosferico del Consiglio nazionale delle ricerche (Iia-Cnr), pubblicata sulla rivista Scientific Reports del gruppo Nature e condotta in collaborazione con l'Università di Torino e l'Università di Roma Tre, ha mostrato come modelli di reti di neuroni artificiali (le cosiddette reti neurali) siano in grado di 'comprendere' i complessi rapporti tra i vari influssi umani o naturali e il comportamento climatico. i propri circuiti neuronali e impara infine semplici regole e relazioni causa-effetto che regolano l'ambiente in cui vive, per esempio per muoversi correttamente all'interno di esso", spiega Antonello Pasini, ricercatore dell'Iia-Cnr e primo autore della ricerca. "Come questo bimbo, il modello di cervello artificiale che abbiamo sviluppato ha studiato i dati climatici disponibili e ha trovato le relazioni tra i fattori naturali o umani e i cambiamenti del clima, in particolare quelli della temperatura globale". del pianeta è studiata quasi esclusivamente mediante modelli climatici globali che utilizzano la nostra conoscenza fisica del funzionamento dell'atmosfera, dell'oceano e delle altre parti che compongono il sistema clima. "Tutti questi modelli attribuiscono alle azioni umane, in particolare all'emissione di gas serra come l'anidride carbonica, l'aumento delle temperature nell'ultimo mezzo secolo, e questa uniformità di risultati non sorprende, poiché i modelli sono piuttosto simili tra loro. Un'analisi completamente diversa consentirebbe pertanto di capire meglio se e quanto questi risultati siano solidi", continua Pasini. con un modello che 'impara' esclusivamente dai dati osservati e non fa uso della nostra conoscenza fisica del clima. "In breve - evidenzia Pasini - le reti neurali da noi costruite confermano che la causa fondamentale del riscaldamento globale degli ultimi 50 anni è l'aumento di concentrazione dei gas serra, dovuto soprattutto alle nostre combustioni fossili e alla deforestazione. Ma il nostro modello permette di ottenere di più: ci dà informazioni sulle cause di tutte le variazioni di temperatura dell'ultimo secolo. Così, si vede che, mentre l'influsso solare non ha avuto alcun peso sulla tendenza all'aumento degli ultimi decenni, le sue variazioni hanno causato almeno una parte dell'incremento di temperatura cui si è assistito dal 1910 al 1945. La pausa nel riscaldamento registrata tra il 1945 e il 1975, invece, è dovuta all'effetto combinato di un ciclo naturale del clima visibile particolarmente nell'Atlantico e delle emissioni antropiche di particelle contenenti zolfo, a loro volta causa di cambiamenti nel ciclo naturale". naturali sul clima. "E conferma la conclusione che i primi siano stati molto forti e influenti almeno a partire dal secondo dopoguerra", conclude Pasini. "Ma questa non è una notizia negativa, anzi: significa che possiamo agire per limitare le nostre emissioni ed evitare conseguenze peggiori anche in Italia, paese particolarmente vulnerabile dal punto di vista climatico- ambientale". |
Post n°1984 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
09 agosto 2017 Comunicato stampa - Proclamati ieri i vincitori del prestigioso premio conferito dall'ICTP di Trieste. Si tratta di tre scienziati protagonisti dello sviluppo della computazione quantistica negli ultimi decenni del secolo scorso. Trieste, 9 agosto 2017. Sono Peter W. Shor (MIT, USA), Charles H. Bennett (IBM Watson Research Center, USA) e David Deutsch (Oxford University, UK) i vincitori della Medaglia Dirac 2017, il riconoscimento che il Centro Internazionale di Fisica Teorica "Abdus Salam" (ICTP) di Trieste assegna annualmente a scienziati affermati nel campo della fisica teorica. ricercatori che, applicando la loro profonda conoscenza della teoria quantistica alla risoluzione di problemi fondamentali del calcolo, dell'informatica e della comunicazione, hanno posto le fondamenta del quantum computing" dice il direttore dell'ICTP Fernando Quevedo. e una trentina d'anni dopo l'avvento della quantum information, siamo oggi sempre più vicini ad applicazioni tecnologiche reali. Le potenzialità di un computer quantistico potrebbero essere presto sfruttate in vari contesti: dalla crittografia all'intelligenza artificiale, dalla finanza alle previsioni metereologiche. Le conoscenze acquisite in questo settore hanno avuto anche importanti ricadute in molti rami della fisica, dallo stato solido alla teoria dei campi, e hanno portato a sviluppi sperimentali nel controllo di oggetti quantistici. Queste idee sono oggi alla base delle tecnologie quantistiche emergenti. presso l'MIT, sviluppando un algoritmo per risolvere il problema numerico della fattorizzazione di grandi numeri, nel 1994 dimostrò per la prima volta l'incomparabile potenza di calcolo di un computer quantistico rispetto a quelli tradizionali. Altro fondamentale contributo dell'informatico statunitense è l'introduzione di un codice di correzione degli errori (QEC, quantum error correction) che consente di proteggere l'informazione da fenomeni di decoerenza e rumore che la renderebbero inutilizzabile. impiegato nei laboratori di ricerca IBM, ha applicato le leggi della meccanica quantistica a problemi l egati allo scambio e al flusso di informazioni, contribuendo allo sviluppo della quantum information. Nel 1984 definisce la cosiddetta "computazione classica reversibile", in grado di migliorare l'efficienza dei calcolatori; nello stesso anno, introduce il concetto di "distribuzione di chiave quantistica": si tratta di un meccanismo di crittografia che, sfruttando il principio di indeterminazione, consente a due enti separati di produrre e condividere una chiave segreta comune casuale, aumentando così la sicurezza dei processi di comunicazione. Nel 1993 definisce il teletrasporto quantistico. l'Università di Oxford, è considerato da molti il padre fondatore dei quantum computer: nel 1985 definisce la versione quantistica della macchina di Turing, dimostrando alcune ipotesi già avanzate da Richard Feynman sulla fattibilità di questi strumenti di nuova generazione; qualche anno più tardi, introduce i concetti di porta logica e circuito quantistici. Inoltre, dimostra che il principio di sovrapposizione, in base al quale ogni stato può essere rappresentato come somma di due o più altri stati quantistici distinti, permette di risolvere alcuni problemi con una velocità di molto superiore rispetto ai computer tradizionali. fin dal 1985, celebra la figura di Paul Maurice Dirac, uno dei padri della fisica moderna e vincitore del premio Nobel per la fisica nel 1933. Si tratta di un premio molto ambito tra gli scienziati, soprattutto tra i fisici teorici: in passato è stato infatti preludio di altri importanti riconoscimenti tra cui cinque premi Nobel e una medaglia Fields. Come ogni anno, la proclamazione dei vincitori è avvenuta l'8 agosto, giorno del compleanno di Dirac. |
Post n°1983 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Le Scienze 24 ottobre 2017 Un nuovo studio ha dimostrato le potenzialità di una macchina quantistica nella ricerca delle tracce del bosone di Higgs tra l'enorme mole di dati raccolti dagli esperimenti ATLAS e CMS al CERN di Ginevra. Per adesso, le sue prestazioni non superano quelle dei programmi di apprendimento automatico basati su calcolatori convenzionali, ma in futuro le cose potrebbero cambiardi Davide Castelvecchi/Nature computer sciencefisica delle particelle Un computer quantistico rudimentale ha riscoperto il bosone di Higgs. O qualcosa del genere. I fisici hanno lavorato duramente per sviluppare macchine che possono usare i fenomeni bizzarri della meccanica quantistica per rendere più veloce il calcolo automatico. Ma sperano anche che questi computer quantistici possano restituire il favore, aiutandoli a scoprire nuove leggi della natura. tra due atomi in un computer quantistico (Credit: Science Photo Library/AGFOra un gruppo di ricerca ha dimostrato che un circuito quantistico può imparare a mettere ordine in pile enormi di dati ricavati da esperimenti di collisioni di atomi che hanno come obiettivo la ricerca di una nuova particella. Il loro studio dimostrativo, condotto usando una macchina costruita dalla società di calcolo quantistico D-Wave, che ha lavorato sul caso ora familiare del bosone di Higgs, non fornisce ancora un chiaro vantaggio rispetto alle tecniche convenzionali. Ma gli autori, che firmano un articolo su "Nature", sostengono che l'apprendimento automatico della macchina quantistica potrebbe fare la differenza nei futuri esperimenti, quando le quantità di dati cresceranno ancora. era coinvolto nel lavoro, sostiene che è na boccata d'aria fresca vedere una macchina quantistica applicata un problema fisico pratico, invece che alle solite questioni matematiche, come la fattorizzazione di numeri interi in numeri primi. "Prima d'ora, le persone erano consapevoli che questo avrebbe potuto essere rilevante", spiega. "Questo ci fa capire come forse potrebbe essere". Nel 2012, due esperimenti presso il Large Hadron Collider (LHC) del CERN, il laboratorio per la fisica delle alte energie vicino a Ginevra, in Svizzera, annunciarono di aver dimostrato l'esistenza del bosone di Higgs, l'ultimo pezzo mancante del modello standard della fisica delle particelle. I due esperimenti, CMS e ATLAS, trovarono la prova del bosone creato nelle collisioni di protoni dal modo in cui l'Higgs decadeva in particelle più comuni, come fotoni ad alta energia. Ma ogni volta che due protoni collidono all'interno di LHC, centinaia di particelle vengono create, alcune delle quali possono essere scambiate per fotoni quando colpiscono i rivelatori. e CMS hanno simulato i dati per addestrare gli algoritmi di apprendimento automatico in grado di separare il grano dal loglio, i fotoni dagli impostori. che ha aiutato a guidare la ricerca dell'Higgs con CMS, voleva sapere se un computer quantistico potesse aiutare a rendere il processo di apprendimento più efficiente, in particolare riducendo la quantità di dati simulati richiesti per addestrare il sistema. "Volevo capire se fosse in grado di risolvere il problema dell'Higgs, perché è quello che conosco", ha spiegato Spiropulu, che lavora al California Institute of Technology di Pasadena. la DeepMind di Londra, ha tradotto il processo di apprendimento in qualcosa che potrebbe essere calcolato da un computer a 'ricottura quantistica' costruito dalla D-Wave, che ha sede a Burnaby, in Canada. Questo tipo di macchina trova le soluzioni ottimali a certi problemi permettendo ai loop di superconduzione, che codificano informazione quantistica, di porsi nel loro stato di minima energia. trovare i criteri ottimali che un computer ordinario avrebbe potuto usare per cercare le "firme" del fotone nei dati reali di Higgs. Per verificare la loro teoria, il gruppo ha avuto accesso alla macchina D-Wave machine dell'Università della Southern California a Los Angeles. L'esperimento ha avuto successo, ha spiegato Spiropulus: "possiamo fare l'addestramento con piccolissimi insiemi di dati e trovare la soluzione ottimale". riscoprire l'Higgs, perché non ne avevano bisogno. Dimostrare che era possibile era la parte più importante del loro lavoro, ha spiegato Cranmer, specialista di analisi dei dati che ha partecipato alla ricerca dell'Higgs nella collaborazione ATLAS. Per ora, non dobbiamo aspettarci che i fisici si convertano ai computer quantistici: finora, la macchina non si è comportata meglio della versione virtuale di se stessa che Spiropolu e il suo gruppo hanno fatto "girare" su un computer convenzionale. E c'è ancora una lunga strada da fare per dimostrare che queste tecniche sono più efficienti di alcuni algoritmi di apprendimento automatico esistenti, che sono in grado di addestrarsi su insieme di dati relativamente piccoli, spiega Cranmer. Spiropulu è d'accordo, e aggiunge che sarà necessario confrontare i vari approcci l 'uno rispetto all'altro per capire qual è il migliore. campi oltre la fisica. Davide Venturelli, fisico che lavora per la Universities Space Research Association and e per l'Ames Research Center della NASA di Mountain View, in California, gestisce un programma che rende la macchina D-Wave situata ad Ames (gestita in modo congiunto da Google e dalla NASA) disponibile agli sperimentatori di tutto il mondo. I ricercatori in campi che vanno dalle scienze della Terra alla bioinformatica sono interessati a usare la ricottura quantistica, in particolare per l'applicazione dell'apprendimento automatico, spiega. spiega Mott. pubblicato su Nature il 19 ottobre 2017. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati) |
Post n°1982 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Le Scienze 23 ottobre 2017 Nel 2016 per la prima volta il programma d'intelligenza artificiale AlphaGo ha sconfitto un campione umano nel gioco tradizionale di strategia Go. Ma i creatori del programma hanno da poco lanciato AlphaGo Zero che, oltre a surclassare le prestazioni il suo predecessore, non ha bisogno di un addestra- mento umano perché impara da zero giocando contro se stesso, trovando mosse originali e vincenti mai viste prima di Larry Greenemeier/Scientific American computer scienceintelligenza artificiale All'inizio di quest'anno il programma di intelligenza artificiale AlphaGo ha messo fine a 2500 anni di supremazia dell'umanità nel giochi da scacchiera. Non soddisfatta della vittoria 3-0 contro il più forte giocatore al mondo, DeepMind Technologies, la società che ha creato AlphaGo, ha annunciato mercoledì una versione migliorata, AlphaGo Zero, che ha surclassato il suo predecessore in un confronto di IA, vincendo tutte e 100 le partite giocate. è il modo in cui AlphaGo Zero è diventato così dominante. A differenza dell'originale AlphaGo, che DeepMind ha addestrato nel tempo usando conoscenze e supervisioni umane a profusione, l'algoritmo del nuovo sistema si è autoaddestrato a padroneggiare il gioco. dare consigli per gli acquisti online e anche di parcheggiare l'auto in modo corretto. I computer acquisiscono queste abilità grazie ad "algoritmi di apprendimento" scritti da esseri umani che inseriscono enormi quantità di dati di addestra- mento in una rete neurale artificiale (così chiamata per la sua capacità di elaborare le informazioni in un modo liberamente ispirato alla struttura delle cellule nervose del cervello). Credit: age Fotostock/AGF Questo processo è chiamato apprendimento automatico. AlphaGo ha dovuto analizzare milioni di mosse fatte da esperti umani e giocare molte, molte partite contro se stesso per afforzare ciò che apprendeva. A maggio AlphaGo ha sconfitto Ke Jie, il miglior giocatore umano del mondo. Nel marzo del 2016 ha battuto un altro giocatore top, Lee Sedol, con l'ausilio di reti neurali multiple, i cui computer richiedevano 48 unità di elaborazione tensoriale (TPU), microchip specializzati appositamente progettati per la realizzazione di reti neurali. quattro TPU e un'unica rete neurale che inizialmente non sapeva nulla di Go. L'IA ha imparato senza supervisione: ha semplicemente giocato contro se stesso e presto è stato in grado di anticipare le proprie mosse e la loro possibile influenza sul risultato di una partita. "Questa tecnica è più potente delle versioni precedenti di AlphaGo perché non è più vincolata dai limiti della conoscenza umana", secondo un post scritto in un blog da Demis Hassabis, co-fondatore di DeepMind e da David Silver, che guida il gruppo di ricerca sull'apprendimento mediante rinforzo dell'azienda. (DeepMind è una divisione di Alphabet, Inc., casa madre di Google). conoscenza umana è che le informazioni possono essere troppo costose, troppo inaffidabili o semplicemente inesistenti in determinate situazioni. "Se tecniche simili potessero essere applicate ad altri problemi strutturati come il ripiegamento delle proteine, la riduzione del consumo di energia o la ricerca di nuovi materiali rivoluzionari, i risultati ottenuti potrebbero avere un impatto positivo sulla società", dice il blog. non convenzionali. Il Go viene giocato usando "pietre" colorate bianche e nere su una scacchiera con una griglia di 19 x 19 caselle. Ogni giocatore colloca le pietre con l'obiettivo di circondare un avversario. "Durante l'addestramento, AlphaGo Zero ha scoperto, giocato e infine imparato a preferire una serie di nuove varianti di joseki, sequenze locali di mosse, precedentemente sconosciute", afferma il portavoce di DeepMind Jon Fildes. della griglia, poiché ciò permette a un giocatore di guadagnare una migliore posizione complessiva sulla scacchiera. "Così come la mossa 37 della seconda partita contro Lee Sedol, questi momenti di ispirazione algoritmica ci danno un'idea della creatività di AlphaGo e del potenziale dell'IA", aggiunge Fildes. An Young-gil, giocatore professionista sudcoreano all'ottavo dan (il nono dan è il più alto), ha definito la mossa 37 come una giocata "rara e intrigante" poco dopo la partita del marzo 2016. SPL/AGFLo studio di DeepMind descrive "un risultato tecnico veramente impressionante; la loro capacità di ottenerlo e la loro capacità di addestrare il sistema in 40 giorni con quattro TPU sono notevoli", spiega Oren Etzioni, direttore generale dell'Allen Institute for Artificial Intelligence (AI2), che il co-fondatore di Microsoft Paul Allen ha istituito nel 2014 per concentrarsi sui potenziali vantaggi dell'IA. "Molti hanno usato l'apprendimento per rinforzo in precedenza, ma gli aspetti tecnici del lavoro sono innovativi". per la padronanza dei giochi da parte dell'IA, dice Etzioni. Nonostante ciò, "penso che sarebbe un errore credere di aver imparato qualcosa di generale sul pensiero e sull'apprendimento per l'intelligenza generale", aggiunge. "Questo approccio non funzionerà su problemi non così ben strutturati, come la comprensione del linguaggio naturale o la robotica, dove lo spazio degli stati è più complesso e non esiste una chiara funzione obiettivo". creare, in ultima analisi, l'IA che può pensare autonomamente, dice Etzioni, "ma occorrono più ricerche oltre i confini dei giochi da scacchiera e funzioni oggettive predefinite" prima che i computer possano davvero iniziare a pensare al di fuori dagli schemi. "Scientific American" il 18 ottobre 2017 . Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati) |
Post n°1981 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
17 ottobre 2017 Memorie di massa a base di polimeri L'uso di lunghe catene polimeriche come mezzo di archiviazione delle informazioni permetterebbe di ridurre di cento volte le dimensioni dei supporti di memoria rispetto agli attuali dischi rigidi, ma finora non era stato trovato un modo efficiente per poter leggere i dati archiviati con questa tecnica. Un gruppo di ricerca ha ora mostrato come sia possibile superare l'ostacolo(red) La strada per usare i polimeri come supporto di memorizzazione dei dati è stata aperta da ricercatori dell'Institut Charles Sadron a Strasburgo e dell'Università di Aix-Marseille, in Francia, che firmano un articolo pubblicato su "Nature Communications". Rispetto ai dischi rigidi attuali la tecnologia a polimeri, lunghe catene di molecole caratterizzate dalla ripetizione di unità strutturali dette monomeri, permetterebbe una riduzione delle dimensioni di circa 100 volte. (Cortesia Jean-François Lutz, Institut Charles Sadron, CNRS) Da diversi anni i ricercatori studiano la possibilità di registrare informazioni usando come singole celle di memoria i monomeri che compongono i polimeri. Di recente è stato dimostrato che è possibile costruire catene polimeriche in cui ogni singola unità monomerica rappresenta un bit. In questo modo diventa possibile scrivere una quantità impressionante di dati in uno spazio molto piccolo: basti pensare al DNA di una cellula, che è appunto una molecola polimerica, in cui sono archiviate tutte informazioni necessarie alla creazione e al funzionamento di un organismo. informazioni si è però finora scontrata con una difficoltà: leggere i bit, ovvero le unità di base che codificano le informazioni espresso sotto forma di valori binari, 0 o 1, che in precedenza erano stati scritti nel polimero. Ora Jean-François Lutz e colleghi hanno dimostrato che, usando particolari molecole polimeriche, è possibile leggere i dati con una tecnica standard di spettrometria di massa. due differenti tipi di gruppi fosfato, che rappresentano rispettivamente i bit 0 e 1, intervallati ogni otto unità monomeriche, corrispondenti a un byte, da una molecola che instaura un legame fragile con il byte successivo. La rottura di questo legame permette poi di procedere alla lettura del byte con uno spettrometro di massa. e letto in un polimero la parola "Sequence" in codice ASCII, che assegna a ogni sequenza di otto bit una lettera o un segno di punteggiatura. Anche se la procedura manuale usata dai ricercatori per compiere queste operazioni di scrittura e lettura richiede qualche ora, sviluppando un apposito programma per il controllo di questa attività dovrebbe essere possibile ridurre il tempo necessario a pochi millisecondi. |
Post n°1980 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
27 luglio 2017
Credit: Wyss Institute at Harvard University Usando RNA, è possibile inserire nelle cellule batteriche porte logiche di dimensioni nanoscopiche, il cui funzionamento è analogo a quello degli elementi di base dei circuiti elettronici per computer(red) Produzione di farmaci, sostanze chimiche e biocombustibili: sono questi i compiti delle cellule microbiche ingegnerizzate in modo da inglobare circuiti biologici che possono rilevare input ambientali diversi, dalla presenza di tossine ai segnali infiammatori. laboratorio c'è ora una nuova frontiera: l'impiego dell'RNA - una molecola biologica fondamentale, coinvolta in numerosi meccanismi che permettono di tradurre le informazioni genetiche contenute nel DNA in proteine - come un vero e proprio circuito logico. da un gruppo di ricerca della Harvard University. Gli scienziati hanno integrato nella cellula di Escheria coli, uno dei batteri più comuni, un dispositivo a RNA che può svolgere le operazioni logiche necessarie per regolare in modo accurato l'espressione di una proteina fluorescente quando incontra un determinato profilo di stimoli interni alla cellula. Credit: Wyss Institute at Harvard University" Abbiamo dimostrato che la molecola di RNA può essere ingegnerizzata per produrre un dispositivo per il 'ribo-calcolo', il calcolo basato sull'acido ribonucleico", ha spiegato Peng Yin, coautore dell'articolo. "Questo risultato si trova all'interfaccia tra nano- tecnologia e biologia sintetica, e ci permetterà di progettare circuiti biologici sintetici più affidabili e più sensibili alle influenze del loro ambiente, rilevanti per specifici obiettivi". dispositivo chiamato interruttore "a forcina". Si trattava di una struttura a RNA, la cui forma ricorda quella di una forcina per capelli, che può controllare la produzione di una specifica proteina; quando un'altra molecola di RNA - che può essere parte del repertorio naturale di RNA della cellula e ha la funzione di innesco - si lega all'interruttore a forcina, quest'ultimo si apre. Solo in quel momento i ribosomi, gli organelli cellulari deputati alla traduzione delle informazioni in proteine, hanno accesso all'RNA forcina e producono la proteina desiderata. un metodo per sfruttare gli interruttori a forcina e le molecole di RNA per codificare alcune operazioni logiche principali - AND, OR e NOT - su cui si basa l'elaborazione automatica delle informazioni dei computer, integrandole in una molecola che è in tutto e per tutto una porta logica a RNA. porte logiche a RNA tra loro indipendenti, che esprimono differenti proteine fluorescenti, abbiamo aperto le porte alla realizzazione di biosensori basati su cellule intere", ha concluso Jongmin Kim, coautore dello studio. "Inoltre crediamo che con più sperimentazioni questi risultati si possano facilmente applicare a microrganismi diversi tra di loro". |
Post n°1979 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Internet Comunicato stampa - Un team di ricercatori della Sapienza di Roma e del Jet Propulsion Laboratory della NASA ha sviluppato un nuovo algoritmo in grado di individuare perturbazioni dell'atmosfera terrestre generate da tsunami atmosferacomputer scienceingegneriadisastri naturali Roma, 18 maggio 2017 - Dai laboratori della Sapienza al Jet Propulsion Laboratory (JPL) di Pasadena (California): l'algoritmo sviluppato da Giorgio Savastano, giovane dottorando ventisettenne di Geodesia e Geomatica della Sapienza, in collaborazione con Augusto Mazzoni e Mattia Crespi, ha ora anche il riconoscimento della NASA, che lo adotterà per individuare in tempo reale gli sunami prima che raggiungano la costa. (Variometric Approach for Real-time Ionosphere Observation), utilizza osservazioni provenienti da GPS e altri sistemi di navigazione satellitare al fine di individuare, in tempo reale, perturbazioni nella ionosfera terrestre associate agli tsunami. La ionosfera è lo strato dell'atmosfera che si estende da circa 80 a 1000 km al di sopra della superficie terrestre. Deve la sua ionizzazione alla radiazione solare e cosmica ed è principalmente conosciuta per il fenomeno dell'aurora polare. l'aria sovrastante generando delle perturbazioni nell'atmosfera note come onde di gravità. Poiché l'atmosfera terrestre è sempre più rarefatta procedendo verso l'alto, queste onde di gravità si amplificano e quando raggiungono una quota di circa 350 km la loro ampiezza è tale da causare apprezzabili variazioni nella densità elettronica della ionosfera. Queste anomalie possono essere misurate utilizzando un segnale GNSS, come quello GPS, che attraversa la ionosfera. guida di Mattia Crespi, professore di Positioning e Geomatica presso la Facoltà di Ingegneria civile e industriale alla Sapienza. Il principale autore di questo algoritmo è Giorgio Savastano, giovane dottorando in Geodesia e Geomatica alla Sapienza e collaboratore al JPL. Questo lavoro, finanziato da Sapienza e JPL, è stato recentemente pubblicato sulla rivista Scientific Reports di Nature. Consiglio Nazionale degli Ingegneri (CNI) e dalla fondazione Italian Scientists and Scholars in North America Foundation (ISSNAP) con una borsa di studi per un periodo di 2 mesi al JPL, dove ha lavorato con il gruppo che si occupa di telerilevamento ionosferico supervisionato da Attila Komjathy e Anthony Mannucci. sistema integrato di allerta tsunami" afferma Savastano. "Stiamo lavorando per implementare questo algoritmo all'interno della rete di stazioni GNSS del JPL che fornisce dati in tempo reale da circa 230 stazioni sparse su tutto il mondo. Queste stazioni sono in grado di immagazzinare dati provenienti da diversi sistemi satellitari, come GPS, Galileo, GLONASS and BeiDou." usato all'interno di un sistema per l'individuazione di tsunami capace di utilizzare dati provenienti da diverse fonti, come sismometri, boe e ricevitori GNSS. Non appena un terremoto verrà rilevato, questo sistema potrà cominciare a monitorare in tempo reale il contenuto di elettroni nella ionosfera cercando anomalie correlate con lo tsunami. Queste misure potranno essere immagazzinate e analizzate da un centro di controllo in grado di generare mappe di rischio relative ad un determinato evento sismico. L'utilizzo di dati provenienti da diverse fonti potrà aumentare l'affidabilità del sistema. |
Post n°1978 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte:Internet 18 aprile 2017 Gli algoritmi che permettono a un sistema di intelligenza artificiale di apprendere una lingua da una serie di testi, trasmettono al sistema anche i pregiudizi razziali o di genere che vi possono essere celati. Dunque, la valutazione per esempio di un curriculum da parte di un sistema di IA non sarebbe affatto più imparziale di quella fatta da un essere umano(red) computer sciencesocietàQuando un sistema di intelligenza artificiale (IA) "apprende" una lingua da dei testi, finisce per assimilare anche i pregiudizi razziali e di genere degli esseri umani. A mostrarlo è stato un gruppo di ricercatori della Princeton University che firmano un articolo pubblicato su "Science". strumento per lo studio degli atteggiamenti e dei comportamenti potenzialmente pregiudizievoli negli esseri umani, ma anche perché evidenzia quanto una lingua sia strettamente intrecciata con pregiudizi storicamente sedimentati e con stereotipi culturali, di cui un soggetto umano può anche non essere consapevole. Science Photo Library/AGFIl metodo standard per valutare l'esistenza di simili pregiudizi impliciti nelle persone è costituito dal cosiddetto test di associa- zione implicita. In questo test ai soggetti è chiesto di indicare, premendo un tasto, se considerano affini o diversi i concetti di una serie di coppie di parole via via sottoposte. I tempi di risposta possono variare notevolmente, indicando quanto una persona considera i due concetti collegati tra loro. Le persone, per esempio, sono solitamente propense ad associare rapidamente "fiore" a "piacevole", e "insetti" a "sgradevole". Questa tecnica, però, non può evidentemente essere applicata a un sistema di intelligenza artificiale. un corrispettivo adatto a valutare questo tipo di pregiudizi nei sistemi di IA che acquisiscono il linguaggio da testi umani. Invece di misurare il tempo di ritardo, in questo test viene eseguita una valutazione statistica del numero di associazioni tra le parole acquisite dal sistema. Embedding Association Test (WEAT) - ha mostrato che, insieme al linguaggio, i sistemi di intelligenza artificiale assorbono anche i pregiudizi impliciti. Per esempio, gli studi sul comportamento umano effettuati negli Stati Uniti mostrano che uno stesso identico curriculum apre le porte a un colloquio di lavoro molto più facilmente se è il nome del candidato è di origine europea e non afroamericana. fatta da un sistema di IA, poiché questo sistema nel corso del suo apprendimento della lingua ha registrato una più frequente associazione dei nomi americani di origine europea con termini "positivi", per esempio "regalo" o "felice". E analogamente, i l sistema di IA associa le parole legate al sesso femminile (come "donna" e "ragazza") a parole che hanno a che fare con le arti, e molto meno con la matematica. |
Post n°1977 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
13 aprile 2017 Il primo microprocessore bidimensionale Cortesia Kansas State University Per la prima volta è stato realizzato un microprocessore basato sui materiali bidimensionali. Una dimostrazione del fatto che è possibile creare circuiti complessi anche con questo tipo di strutture, grazie a cui superare la tecnologia sl silicio(red) materialicomputer sciencenanotecnologie È costituito da 115 transistor e occupa una superficie di 0,6 millimetri quadrati il primo microprocessore bidimensionale, realizzato da ricercatori del Politecnico di Vienna. In particolare, gli scienziati hanno usato una pellicola di disolfuro di molibdeno dello spessore di soli tre atomi. Anche se il nuovo microprocessore ha la capacità di eseguire solo programmi semplici, rappresenta un progresso tecnologico significativo per il passaggio dall'elettronica basata sul silicio alla nanoelettronica basata sui materiali bidimensionali. La ricerca è descritta in un articolo pubblicato su "Nature Communications". produzione dei microprocessori si sta lentamente ma inesorabilmente avvicinando ai suoi limiti fisici di miniaturizzazione, uno dei fattori chiave del miglioramento delle prestazioni. Per poter continuare la corsa al miglioramento delle prestazioni dei computer e delle apparecchiature elettroniche in generale, fisici e ingegneri stanno quindi testando la possibilità di ricorrere ad altri materiali, e in particolare ai cosiddetti materiali bidimensionali, il cui spessore varia da uno a pochissimi strati atomici. Illustrazione di uno strato di disolfuro di molibdeno fra due strati di grafene (azzurro).(Cortesia Kansas State University) La pellicola triatomica di disolfuro di molibdeno sperimentata al Politecnico di Vienna non solo appartiene a questa classe di materiali, ma è anche un semiconduttore, una proprietà essenziale per il funzionamento dei transistor che il grafene - il capostipite dei materiali bidimensionali, scoperto nel 2004 - non ha.
di questi materiali permette di sfuggire a una serie di limiti intrinseci della tradizionale tecnologia al silicio, ma a sua volta complica per altri versi la progettazione di un processore che per le proprie connessioni interne non può sfruttare la terza dimensione. Per questo finora non si era riusciti a creare strutture che comprendessero più di una manciata di transistor. Mueller, che ha diretto la ricerca, "siamo stati molto attenti alle dimensioni dei singoli transistor. I rapporti esatti tra le geometrie dei transistor nei componenti di base del circuito sono un fattore critico per riuscire a creare unità più complesse a cascata." avrà bisogno di ulteriori perfezionamenti per permettere la creazione di circuiti con migliaia o addirittura milioni di transistor, la dimostrazione di principio della loro fattibilità è ormai acquisita. |
Post n°1976 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Internet 13 marzo 2017 Un gruppo di scienziati ha ottenuto un magnete stabile costituito da un singolo atomo. L'obiettivo finale, ancora lontano, è realizzare dischi rigidi a scala atomica, in grado di aumentare di migliaia di volte la densità di immagazzinamento dei dati rispetto alle prestazioni degli hard disk attualidi Elisabeth Gibney/Nature Spaccate un magnete in due: avrete due magneti più piccoli. Tagliateli ancora in due, e ne otterrete quattro. Ma più i magneti diventano piccoli, più sono instabili: i loro campi magnetici tendono a invertire le polarità da un momento all'altro. Ora, però, i fisici sono riusciti a creare un magnete stabile da un singolo atomo. proprio lavoro su Nature l'8 marzo scorso, ha usato i suoi magneti a singolo atomo per realizzare un hard disk su scala atomica. Il dispositivo riscrivibile, formato da due di questi magneti, è in grado di memorizzare solo due bit di dati, ma se portato a grande scala potrebbe aumentare di 1000 volte la densità di immagazzinamento dei dati di un hard disk, spiega Fabian Natterer, fisico dell'École polytechnique fédérale de Lausanne ( EPFL), in Svizzera, autore dell'articolo. della Delft University of Technology, nei Paesi Bassi. "Finalmente, è stata dimostrata in modo indiscutibile la stabilità magnetica in un singolo atomo". Credit: Tessi Alfredo/AGFAll'interno di un normale hard disk c'è un disco diviso in aree magnetizzate, ciascuna simile a una piccola barretta magnetica; i campi delle aree magnetizzate possono puntare verso l'alto o verso il basso. Ciascuna direzione rappresenta un 1 o uno 0, un'unità di dati nota come bit. Più sono piccole le aree magnetizzate, più densa- mente possono essere memorizzati i dati. Ma le regioni magnetizzate devono essere stabili, in modo che gli 1 e gli 0 all'interno del disco rigido non cambino accidentalmente. un milione di atomi. Ma in esperimenti i fisici hanno ridotto radicalmente il numero di atomi necessari per memorizzare un bit, passando dai 12 atomi del 2012 a un unico atomo ora. Natterer e il suo gruppo hanno usato atomi di olmio, un metallo delle terre rare, posto su un foglio di ossido di magnesio e mantenuto a una temperatura inferiore a cinque kelvin. singolo atomo perché ha molti elettroni spaiati che creano un forte campo magnetico, e questi elettroni si trovano in un'orbita vicina al centro dell'atomo dove sono schermati dall'ambiente. Questo conferisce all'olmio un campo intenso e stabile, dice Natterer. Ma la schermatura ha un inconveniente: rende l'olmio notoriamente un elemento con cui è difficile interagire. E finora molti fisici dubitavano che fosse possibile determinare in modo affidabile lo stato dell'atomo. il gruppo ha usato un impulso di corrente elettrica da una punta magnetizzata di un microscopio a effetto tunnel, che può invertire l'orientamento del campo dell'atomo tra uno 0 e un 1. Nei test, i magneti si sono dimostrati stabili: ciascuno ha conservato i propri dati per diverse ore e il gruppo non ha mai osservato una inversione involontaria. I ricercatori hanno usato lo stesso microscopio per leggere il bit, con diversi flussi di corrente per rilevare lo stato magnetico dell'atomo. avrebbe potuto leggere in modo affidabile il bit, il gruppo, che includeva ricercatori dell'IBM, ha ideato un secondo metodo di lettura indiretto. Ha usato un atomo di ferro vicino come un sensore magnetico, regolandolo in modo che le sue proprietà elettroniche dipendessero dall'orientamento dei due magneti atomici di olmio nel sistema a 2 bit. Il metodo permette al gruppo di leggere anche più bit contemporaneamente, dice Otte, rendendolo più pratico e meno invasivo rispetto alla tecnica microscopica. CC0 Public DomainUsare singoli atomi come bit magnetici aumenterebbe radicalmente la densità di memorizzazione dei dati; Natterer riferisce che i suoi colleghi dell'EPFL stanno lavorando a metodi per realizzare grandi schiere di magneti a singolo atomo. Ma il sistema a 2 bit è ancora lontano dalle applica- zioni pratiche e molto in ritardo rispetto a un altro tipo di archiviazione a singolo atomo, che codifica i dati nelle posizioni degli atomi, invece che nella loro magnetizzazione, e ha già costruito un dispositivo di archiviazione dati riscrivibile da 1-kilobyte (8192-bit). potrebbe essere compatibile con la spintronica, dice Otte. Questa tecnologia emergente usa stati magnetici non solo per memorizzare i dati, ma anche per spostare informazioni in un computer al posto della corrente elettrica, e renderebbe i sistemi molto più efficienti dal punto di vista energetico. i magneti a singolo atomo. Natterer, per esempio, prevede di osservare tre mini-magneti orientati in modo che i loro campi siano in concorrenza l'uno con l'altro, in modo da invertirsi continuamente. atomo, usandoli come mattoncini Lego per costruire strutture magnetiche da zero", conclude. su Nature l'8 marzo 2017. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati.) |
Post n°1975 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Le Scienze 06 marzo 2017 Comunicato stampa - Un team di ricercatori di Istituto di informatica e telematica del Cnr, Mit, Cornell University e Uber ha utilizzato i big data per predirne l'effetto in 30 città: lo studio potrebbe fornire indicazioni per trasformare il futuro del trasporto a livello globale. Milano ha un potenziale di condivisione dei viaggi cinque volte maggiore di Roma. A livello globale, ai primi posti New York e Vienna. La ricerca pubblicata su Nature Scientific Reports Roma, 6 marzo 2017 - Un gruppo di ricercatori dell'Istituto di informatica e telematica del Consiglio nazionale delle ricerche (Iit-Cnr), del Mit, della Cornell University e della società Uber ha utilizzato una quantità senza precedenti di dati sulla mobilità per predire le potenzialità del ride-sharing in 30 città globali. Attraverso l'analisi di oltre 200 milioni di viaggi di taxi effettuati a New York, Singapore, San Francisco e Vienna, i ricercatori hanno scoperto le leggi della mobilità condivisa che possono essere applicate a qualsiasi città. La ricerca, pubblicata nel numero di marzo 2017 della rivista Nature Scientific Reports, potrebbe fornire indicazioni per trasformare il futuro del trasporto a livello globale. UberPool, che è il servizio di Uber con conducente non professionista per la condivisione dei viaggi, è attivo in oltre 30 città, inclusa San Francisco dove è scelto da oltre il 50% dei suoi clienti. Grazie alla mole di dati generati da questo e simili sistemi, è possibile quantificare il potenziale della mobilità condivisa in un modo che era finora impossibile", spiega Paolo Santi, ricercatore presso l'Iit-Cnr e il Mit Senseable City Lab. Questa disponibilità di dati ha consentito ai ricercatori del Mit e del Cnr la scoperta delle leggi del ride-sharing urbano. "Per quantificare il rapporto tra domanda di mobilità urbana e il numero di corse condivisibili, è stata utilizzata una metodologia basata sulla scienza delle reti - prosegue Santi - il nostro gruppo di ricerca ha inoltre sviluppato un modello che caratterizza la 'legge del ride-sharing': con tre semplici parametri - l'area urbana, la densità delle richieste di viaggio e la velocità media del traffico - è stato possibile ottenere una stima molto accurata del numero di viaggi che può essere condiviso in una data città". stato in grado di classificare le città in base al l oro potenziale di condivisione: "Abbiamo scoperto, per esempio, che Milano ha un potenziale di condivisione dei viaggi di circa il 50%, cinque volte maggiore di Roma: questa differenza è in gran parte dovuta alla diversa velocità del traffico cittadino. Di tutte le città studiate, New York è risultata la città più 'condivisibile' con il 62%, Berlino e Londra fra le meno 'condivisibili', con il 10-15%", precisa il ricercatore dell'Iit-Cnr. "I risultati della ricerca mettono anche in luce certe somiglianze tra città storicamente e strutturalmente diverse come Vienna e New York. Questo risultato è sorprendente e la spiegazione possibile per tale somiglianza, nonostante le differenze strutturali, è che ciò che influenza la condivisibilità dei viaggi, è il modo in cui sono organizzate le nostre vite, più che la disposizione della città". che ha guidato la ricerca, conclude: "Con i veicoli a guida autonoma che stanno per arrivare sulle nostre strade, la condivisione delle auto e dei viaggi potrebbe diventare sempre più diffusa, creando nuovi sistemi di mobilità che rappresenteranno un ibrido fra trasporto pubblico e privato". |
Post n°1974 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Internet 01 marzo 2017 Darknet, il lato oscuro della Rete, è anche il meno attaccabile Un'analisi della parte "oscura" del Web - spesso usata anche per scopi illeciti - ha mostrato che è quattro volte più resistente agli attacchi informatici e a eventuali danni ai suoi nodi. Questa resistenza è dovuta alla struttura topologica di Darknet e ai suoi protocolli di comunicazione, che privilegiano la sicurezza rispetto alla velocità di comunicazione propria di Internet(red) La parte "oscura" del Web - cui si può accedere solo attraverso protocolli che garantiscono privacy e anonimato - è molto più resistente alle perturbazioni del resto di Internet, sia che si tratti di danni ad alcuni dei suoi nodi o di attacchi di hacker. E' la conclusione a cui sono giunti Manlio De Domenico e Alex Arenas, due ricercatori dell'Università Rovira i Virgili a Tarragona, in Spagna, che firmano un articolo su "Physical Review E". collegamento fra reti informatiche, anche molto diverse tra loro, reso possibile da un insieme di protocolli di rete comune chiamato TCP/IP - in genere si usano i motori di ricerca che raccolgono i link relativi alle risorse accessibili. Struttura dei nodi di Intenet. (Cortesia Barrett Lyon /The Opte Project) Tuttavia, alcune delle risorse presenti in rete sono accessibili, in parte per problemi legati al software di ricerca, e spesso perché chi ha messo in rete quella risorsa sfrutta dei comandi che la rendono trasparente ai motori di ricerca. Per accedere a quei contenuti - che formano il cosiddetto Deep Web - bisogna quindi conoscere già l'indirizzo della pagina o del sito cercato. oscura: Darknet, che non solo è invisibile ai motori di ricerca, ma è raggiungibile solo usando protocolli che garantiscono privacy e anonimato. Lab dell'Università della California a Los Angeles, De Domenico e Arenas hanno caratterizzata la topologia di Darknet - ossia la struttura dei collegamenti fra i suoi siti - e sviluppato un modello che descrive il modo in cui sono trasmesse le informazioni, che sfrutta una tecnica per nascondere i messaggi attraverso una serie di procedimenti crittografici, sovrapposti l'uno all'altro (e per questo chiamato onion routing). risposta di Darknet a tre tipi di disturbi: attacchi che prendono di mira specifici nodi di rete, guasti casuali di alcuni nodi, e guasti/attacchi che si propagano a cascata attraverso la rete. Cortesia Rastin PriesI risultati hanno mostrato che per causare una forte perturbazione alle comunicazioni di Darknet, gli attacchi/danni devono colpire il quadruplo di nodi necessari a bloccare Internet, e che i guasti a cascata sono più facilmente rimediabili. una rete molto decentrata di nodi, in cui non ci sono punti di connessione generali per ogni città, regione o paese: è sostanzialmente peer-to-peer. Internet invece ha hub altamente interconnessi, ciascuno dei quali, una volta fatto saltare da un attacco, rischia di destabilizzare l'intero sistema. origine Internet, Arpanet (Advanced Research Projects Agency Network), il sistema di comunicazione sicura progettato alla fine degli anni sessanta dal Dipartimento della difesa degli Stati Uniti (e per questo poi chiamato Darpanet). privilegiare la sicurezza delle informazioni, mentre Internet ha puntato a massimizzare la velocità e l'efficienza, pagandola però con una minore resilienza. |
Post n°1973 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Internet computer sciencesocietàinternet Secondo un sondaggio realizzato nel 2016 dal Pew Research Center, il 62 per cento degli americani legge le notizie sui social media. Questa statistica aiuta a spiegare l'onnipresenza delle notizie fasulle: quando le informazioni viaggiano attraverso i social network, i normali filtri editoriali non hanno alcuna possibilità di separare il tweet di qualità dalla bufala. la diffusione di menzogne e false voci richiederà la collaborazione di informatici, linguisti, psicologi e sociologi. Un nuovo studio, che sarà presentato questo mese in una conferenza dell'Association for Computing Machinery, ha analizzato milioni di tweets, rivelando le parole e le frasi che sono considerate più credibili. CARL COURT/AFP/Getty ImagesTanushree Mitra, esperta di informatica del Georgia Institute of Technology e prima autrice dello studio, dice che si è interessata al problema quando nel 2011 fu ucciso Osama bin Laden e circolarono numerosi messaggi su se e come fosse veramente morto. Molti sentirono parlare per la prima volta dell'uccisione su Twitter. "Sui social media questo tipo di notizie dell'ultim'ora e le relative speculazioni circolano molto prima che la notizia raggiunga i mezzi di informazione tradizionali", dice Mitra. Lei e i suoi collaboratori al Georgia Tech hanno voluto sviluppare dei sistemi automatizzati per valutare se gli eventi sono realmente accaduti, basandosi esclusivamente sul modo in cui le persone ne stavano parlando. Questi strumenti possono aiutare a rilevare voci false prima che si diffondano troppo. eventi avvenuti tra ottobre 2014 e febbraio 2015 e dei tweet associati a essi. Per assegnare un punteggio di "credibilità" a ogni evento, i partecipanti allo studio leggevano alcuni tweet e, in base a ciò che sapevano o a una ricerca on- line, ne valutavano la "correttezza" dell'evento riferito. A seconda della percentuale di persone che classificavano gli eventi come "certamente corretti", questi venivano stati collocati in quattro categorie: credibilità massima, credibilità elevata, credibilità moderata e scarsa credibilità. Gli eventi scarsamente credibili includevano un giocatore di football morto dopo un placcaggio particolamente duro, e la polizia che spruzzava pepe su una folla. (Le valutazioni di accuratezza non erano perfette: la polizia aveva effettivamento usato il pepe contro la folla) i 66 milioni di tweet relativi agli eventi, cercando correlazioni tra i punteggi di credibilità e alcune caratteristiche, come le parole che esprimono incertezza o un'emozione. diversi indizi utili: gli eventi "credibili" avevano più probabilità di essere descritti su Twitter con termini come appeared, depending e guessed (sembra, stando a, si suppone), mentre gli eventi "incredibili" erano accompagnati da altri termini, comeindicates, certain level e dubious (indica, in certa misura, dubbio). che esprimevano un giudizio: vibrant, unique e intricate (vivace, unico e complesso) lasciavano prevedere un'alta credibilità, mentre pry, awfulness e lacking (indagare, orrore e privo) suggerivano una scarsa credibilità. (Stranamente, darn(maledizione) era associato a un'elevata credibilità, damn (dannazione) a una bassa.) E anche se termini amplificativi come without doubt (senza dubbio) e undeniable (innegabile) facevano prevedere una scarsa credibilità nei tweet originali, ne prevedevano una alta nei retweet. suggeriscono una scarsa credibilità, forse perché chi ripubblica i tweet di un altro è riluttante a prendersi la responsabilità dell'affermazione. Anche un elevato numero di retweet è stato associato a una scarsa credibilità. (Queste sono tutte correlazioni: i ricercatori non sanno, per esempio, se il numero di retweet ha influenzato la valutazione dei partecipanti allo studio, o se retweet e valutazioni dipendevano, in modo indipendente tra loro, dalle caratteristiche del evento supposto.) modello di prevedere la credibilità di un evento, combinando indicatori come quelli citati. procedesse a caso, darebbe la risposta giusta i l 25 per cento delle volte; se indovinasse sempre i casi di "credibilità elevata"- la categoria con il maggior numero di eventi - sarebbe nel giusto il 32 per cento delle volte. Ma l'algoritmo ha funzionato molto meglio di così, raggiungendo una correttezza del 43 per cento. Se poi si assegna all'algoritmo mezzo punto quando un'attribuzione è solo leggermente errata (per esempio, attribuendo "massima credibilità" a un evento con "credibilità elevata"), la precisione dell'algoritmo arriva al 65 per cento. combinando spunti linguistici con elementi come l'autore del tweet o i link citati. In un lavoro preliminare, Mitra ha dimostrato che le storie provenienti da una sola persona tendono ad avere scarsa credibilità. come una sorta di "occhio preliminare", che attiri l'attenzione di giornalisti e fact checkers su resconti che potrebbero interessarli, per occuparsene o per smentirli. Secondo Robert Mason - un ricercatore dell'Università di Washington che ha studiato i messaggi su Twitter a proposito dell'attentato alla maratona di Boston, ma non ha partecipato allo studio di Mitra - uno strumento del genere potrebbe anche aiutare i primi soccorritori a decidere di quali informazioni fidarsi durante un emergenza. dice Mason, è inserire dentro Twitter o Facebook sistemi di alllerta che individuino quando una persona sta per condividere storie potenzialmente false, chiedendo se è sicura di volerlo fare, in modo tale da "rallentare la facilità con cui diffondiamo le informazioni". anche ricorrendo all'intelligenza artificale. Mason ricorda l'adagio secondo cui una bugia può viaggiare per mezzo mondo prima che la verità si metta le scarpe. Spesso la disinformazione è più avvincente della verità. E i giornalisti sono spinti a riferire rapidamente le notizie. In ogni caso, spesso la gente ignora l'autorevolezza della fonte. "In un'epoca di social media e di informazioni in rapidissimo movimento," dice Mason, "che cos'è una fonte autorevole? Non abbiamo più un Walter Cronkite o un Edward R. Murrow che ci dicano 'Ecco come stanno le cose'. Abbiamo una molteplicità di voci che dicono che le cose stanno così. E quindi tocca a noi scegliere". Scientific American il 3 febbraio 2017. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati. |
Post n°1972 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Le Scienze 01 febbraio 2017 La propagazione a cascata dei guasti più gravi nelle reti di distribuzione di energia elettrica può essere riprodotta grazie a un modello al computer e a un algoritmo di previsione, che potrebbe essere molto utile nelle situazioni critiche reali(red) Nel progettare grandi sistemi a rete, come la distribuzione dell'elettricità o i collegamenti dei voli aerei, gli ingegneri adottano misure che ne permettono il funzionamento anche nel caso in cui un piccolo numero di elementi sperimenti un guasto. Eppure esistono eventi molto più rari in cui un guasto si può ripercuotere a cascata su gran parte della rete, compromettendone il corretto funzionamento. maggiori è sfuggita a ogni comprensione e soprat- tutto a ogni previsione. Ma presto le cose potrebbero cambiare, grazie a uno studio pubblicato su "Physical Review Letters " da Takashi Nishikawa e colleghi della Northwestern University a Evanston, in Illinois. Gli autori hanno elaborato un modello al computer che riproduce egregiamente la propagazione dei guasti a cascata e, grazie a un algoritmo, è in grado anche di fare previsioni a riguardo, risultando potenzialmente utile nelle situazioni reali. funzionamento e guasti della rete elettrica del Texas. Il punto cruciale dello studio è la dimostrazione che le linee di trasmissione dell'elettricità non si guastano casualmente, in modo indipendente le une dalle altre, perché nelle cascate di guasti di maggiori dimensioni ci sono importanti sottoinsiemi della rete che si rompono insieme. Si tratta di coppie di componenti definiti "co-suscettibili" che spesso non sono neppure in contatto. Semplicemente, un guasto di una linea elettrica fa sì che la corrente venga reindirizzata, finendo per sovraccaricare una linea elettrica situata lontano. Secondo gli autori, l'identificazione dei gruppi di elementi co-suscettibili è una strada fondamentale per la comprensione dei meccanismi con cui avvengono i guasti a cascata. Tuttavia, identificare questi gruppi in grandi insiemi di dati raccolti nei guasti verificatisi in passato richiede una capacità di calcolo non indifferente. delle dimensioni delle cascate di guasti, per poi selezionarne 5000 di queste cascate iniziate dal guasto di pochi elementi. Analizzando i dati hanno identificato i cluster co-suscettibili, di cui molti coinvolgevano più di sei singole linee elettriche. Una volta identificati questi cluster, gli autori hanno riprodotto le cascate di guasti non nel network fisico originale, ma in un network astratto più semplice, costituito da gruppi co-suscettibili, grazie a cui hanno trovato l'algoritmo in grado di riprodurne la dinamica. l'algoritmo ha dimostrato di poter riprodurre la distribuzione completa delle cascate: l'accordo tra simulazione e realtà dimostra che la dinamica delle cascate dipende quasi interamente dall'evoluzione di un semplice scheletro di gruppi co-suscettibili. ricerca, questo nuovo metodo potrebbe anche essere usato per stimare le probabilità che avvengano le cascate peggiori. 'Qual è la probabilità che si verifichi una cascata di dimensioni doppie rispetto a quelle della più grande cascata mai osservata?'", ha spiegato Motter. "Il nostro approccio permette di fare previsioni oltre quanto è concesso dall'analisi dei dati storici, e naturalmente le cascate di maggiori dimensioni sono quelle che interessano di più." |
Post n°1971 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Le Scienze Realizzato un qubit, l'unità d'informazione su cui saranno basati i futuri computer quantistici, con lo spin di un atomo di silicio immerso in un campo elettromagnetico che oscilla costantemente nelle frequenze delle microonde. Il dispositivo, denominato qubit "vestito", ha una stabilità dieci volte superiore a quella dei qubit ordinari realizzati finora(red) Secondo la legge di Moore, formulata negli anni sessanta dall'informatico statunitense Gordon Moore, uno dei fondatori di Intel, il numero di transistor su un microchip sarebbe dovuto raddoppiare ogni 18 mesi. Formulata su base empirica, questa legge ha funzionato egregiamente per alcuni decenni in cui si è assistito a uno sviluppo fenomenale dei computer. segnato il passo. Semplicemente perché la crescente miniaturizzazione dei componenti elettronici, che permette di aumentare appunto il numero di microchip a parità di superficie, è ormai arrivata in prossimità di un limite fisico. il futuro del calcolo automatico sarà del computer quantistico. In esso il supporto di codifica del bit, l'unità d'informazione binaria dotata di due soli valori, o stati, indicati come 0 e 1, non sarà più un circuito elettrico aperto o chiuso, per esempio un transistor, ma gli stati quantistici di un sistema microscopico: fotoni, atomi o molecole, che costituiscono il supporto di un bit quantistico, o qubit. In questi casi il vantaggio è che ciascuno di questi oggetti del mondo microscopico può esistere in una sovrapposizione di stati quantistici diversi, espandendo enormemente la potenza di calcolo. microscopici a fini pratici è un compito più facile a dirsi che a farsi. In effetti uno degli obiettivi di molti laboratori in tanti paesi del mondo è realizzare qubit sempre più stabili e affidabili. tipo di qubit realizzato da ricercatori dell'Università del New South Wales (UNSW), in Australia, e descritto in un articolo su "Nature Nanotechnology". sovrapposizione stabile di stati per un tempo dieci volte superiore rispetto ad altri qubit simili realizzati finora. Ciò consente di espandere enormemente il tempo durante cui potrebbero essere effettuati i calcoli in un futuro computer quantistico. Si tratta in realtà di un "qubit vestito" (dressed qubit), un termine con cui si indica un atomo, in questo caso di silicio, accoppiato a con un campo magnetico. l'informazione, immergendo un atomo in un campo elettromagnetico molto intenso, oscillante con frequenze nelle microonde, e abbiamo definito il qubit come l'orientazione dello spin dell'atomo rispetto al campo", ha spiegato Andrea Morello, che ha coordinato lo studio. Poiché il campo elettromagnetico oscilla costantemente a una frequenza molto elevata, ogni rumore o disturbo elettromagnetico esterno di frequenza diversa ha un effetto nullo. al rumore: l'informazione |
Post n°1970 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Le Scienze 13 ottobre 2016 Un nuovo computer che combina le reti neurali e un'architettura della memoria tipica dei computer convenzionali è in grado di imparare da esempi o per tentativi ed errori, e anche eseguire complesse elaborazioni, due capacità che finora sembravano alternative(red) Un computer che coniuga la capacità di apprendimento delle reti neurali e l'efficienza e la flessibilità di calcolo dei normali computer digitali è stato realizzato per la prima volta da ricercatori di Google DeepMind - l'azienda informatica britannica DeepMind acquistata da Google nel 2014 - che ne descrivono le caratteristiche in un articolo pubblicato su "Nature". elaborare forme complesse di dati, ma richiedono una puntuale programmazione manuale per eseguire queste attività. Le reti neurali artificiali sono state sviluppate per mimare la capacità di apprendimento del cervello grazie all'identificazione, a partire da una serie di esempi, di specifici modelli nei dati: invece di essere programmata una rete neurale è addestrata, per esempio a riconoscere oggetti o facce. Finora lo sviluppo di queste due architetture computazionali ha viaggiato su due strade ben distinte, a causa di una radicale differenza nell'organizzazione della loro memoria. L'efficienza del nuovo computer è stata testata controllandone la capacità di orientarsi nella metropolitana di Londra. (Macdiarmid/Getty Images) I computer convenzionali separano il calcolo e la memoria. I calcoli sono eseguiti da un processore, che può sfruttare una memoria indirizzabile per portare i diversi valori da usare nell'area di lavoro e poi ricollocarli nello spazio di memoria. Questa soluzione offre due vantaggi: da un lato la memoria può essere estesa a piacimento per inserire nuove informazioni, e dall'altro i suoi c ontenuti possono essere trattati come variabili. Per eseguire una stessa elaborazione su un dato o su un altro diverso, è sufficiente cambiare l'indirizzo di memoria del dato da trattare. computazionali e quelle di memoria sono mescolate l'una all'altra dall'attribuzione del "peso" che la rete dà a ciascun dato mentre tenta di identificare schemi nell'insieme di informazioni ricevute. Questo rende le reti neurali adatte a simulare le capacità di apprendimento umane, ma non permette un'archiviazione dinamica, indipendente dallo stato della rete, di nuove informazioni e, dunque di eseguire algoritmi che agiscono allo stesso modo indipendentemente dai valori delle variabili usate. sviluppare quello che hanno chiamato computer neurale differenziabile (DNC), che coniuga la capacità di imparare da esempi o per tentativi ed errori, e una struttura di memoria esterna simile a quella di un computer convenzionale. bene complesse strutture grafiche come gli alberi genealogici o filogenetici, o le reti di trasporto, riuscendo, per esempio, a pianificare il percorso migliore sulla metropolitana di Londra senza avere preventivamente una conoscenza di quella rete di trasporto. |
Post n°1969 pubblicato il 28 Febbraio 2019 da blogtecaolivelli
Fonte: Le Scienze 17 novembre 2016 Nuovo record per l'entanglement quantistico
Credit: Chris, via flickr.com Un esperimento ha dimostrato per la prima volta la correlazione quantistica a distanza tra dieci fotoni. Il risultato, ottenuto con una tecnica sperimentale innovativa, apre la strada ad applicazioni nell'informa- zione quantistica e nel teletrasporto, ma ancora non basta a rendere competitivi i computer quantistici di Matteo Serra fisicacomputer sciencefisica teorica Un gruppo di ricercatori coordinati da Xi-Lin Wang, dell'University of Science and Technology of China di Hefei, ha dimostrato per la prima volta l'entanglement quantistico tra dieci fotoni, migliorando il primato precedente: finora l'entanglement era stato ottenuto al massimo tra otto fotoni. I risultati dell'esperimento sono stati pubblicati su "Physical Review Letters". e controversi della meccanica quantistica, è una correlazione che lega particelle a distanza: quando due particelle sono entangled, una misura dello stato quantistico dell'una influenza anche lo stato dell'altra (e viceversa), qualunque sia la distanza tra le due. molteplici, dalla crittografia al teletrasporto fino ai computer quantistici (gli elaboratori del futuro basati sui principi della meccanica quantistica, in grado di sviluppare una potenza di calcolo estrema- mente superiore ai computer classici). Tuttavia, gli esperimenti che puntano a ottenere l'entanglement tra più particelle presentano ancora importanti limitazioni. In particolare, l'efficienza dei processi che producono particelle entangled, e di conseguenza la quantità stessa di particelle create, è ancora piuttosto bassa. Apparato sperimentale per la produzione di fotoni entangled (Wikimedia Commons) La maggior parte degli esperimenti di entanglement quantistico usa fotoni (i quanti di luce). In questi esperimenti, tipicamente si sfruttano le proprietà di particolari cristalli, come quelli di borato di bario: illuminati da un laser, i cristalli convertono una piccola frazione di fotoni incidenti in una coppia di fotoni entangled. Questi vengono raccolti e messi a loro volta in entanglement con coppie di fotoni prodotte da altri cristalli. I fotoni in uscita dai cristalli, però, sono emessi in direzioni diverse e con polarizzazioni opposte (la polarizzazione è la direzione di oscillazione del campo elettromagnetico associato ai fotoni): è questo fattore che rende l'efficienza di raccolta dei fotoni abbastanza bassa (attorno al 40 per cento) e limita il numero totale di fotoni entangled prodotti. l'idea di produrre ciascuna coppia di fotoni entangled tramite un sistema di due cristalli molto vicini tra loro, separati da un dispositivo ottico in grado di modificare la polarizzazione dei fotoni prodotti. Questa configurazione a "sandwich" genera coppie di fotoni che viaggiano nella stessa direzione e con la stessa polarizzazione, aumentando notevolmente l'efficienza di produzione (fino al 70 per cento). Per creare l'entanglement a dieci fotoni, i ricercatori hanno disposto in fila cinque di queste strutture a sandwich, illuminandole con un laser a 0,57 watt di potenza e raccogliendo i fotoni prodotti tramite un altro strumento ottico. un importante passo avanti soprattutto per le possibili ùapplicazioni nel settore dell'informazione quantistica ù(per esempio nell'elaborazione di codici per la correzione degli errori casuali nei computer quantistici) e negli esperimenti sul teletrasporto, mentre non è ancora sufficiente a rendere i computer quantistici competitivi con quelli classici. |
AREA PERSONALE
MENU
CHI PUÒ SCRIVERE SUL BLOG
I messaggi e i commenti sono moderati dall'autore del blog, verranno verificati e pubblicati a sua discrezione.