Creato da blogtecaolivelli il 04/03/2012

blogtecaolivelli

blog informazione e cultura della biblioteca Olivelli

 

Messaggi del 28/02/2019

LE PROPRIETA' TERAPEUTICHE DEL POMODORO...

Post n°1993 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Internet

Comunicato stampa -

Si chiama 'bronzeo' una nuova linea di pomodoro che contiene

una combinazione unica di polifenoli in grado di migliorare i

sintomi delle patologie infiammatorie dell'intestino.

Lo studio, condotto dall'Istituto di scienze delle produzioni

alimentari del Cnr, è stato pubblicato sulla rivista Frontiers in

Nutrition

alimentazione

Roma, 28 febbraio 2018 - Più di 2.2 milioni di Europei e 1.5

milioni di Americani soffrono di infiammazioni croniche intestinali,

per le quali, ad oggi, non esiste una cura. I polifenoli, una famiglia

di metaboliti secondari derivati dalle piante, possono rappresentare

una valida strategia terapeutica per la cura dei sintomi di tali patologie.

Da una ricerca dell'Istituto di scienze delle produzioni alimentari

del Consiglio nazionale delle ricerche (Ispa-Cnr), unità di Lecce, in

collaborazione con Cathie Martin ed Eugenio Butelli del John Innes

Centre, Norwich e con Marcello Chieppa dell'Irccs 'S. De Bellis' di

Castellana Grotte (Ba), emerge che una giusta combinazione di

polifenoli può attenuare i sintomi dell'infiammazione intestinale.

Lo studio è stato pubblicato sulla rivista Frontiers in Nutrition.

"Frutta e verdura sono alimenti ricchi di polifenoli, ma per ottenere

la giusta combinazione e le giuste quantità attraverso la dieta

dovremmo assumerne una varietà e quantità elevatissime", spiega

Angelo Santino dell'Ispa-Cnr coordinatore dello studio.

"Nei nostri laboratori siamo riusciti ad ottenere, attraverso un

approccio di ingegneria metabolica, una linea di pomodori, che

abbiamo chiamato 'bronzeo' per il colore metallico e bronzato della

loro buccia, che contengono una combinazione unica di polifenoli.

Si tratta, in particolare di flavonoli, antocianine e stilbenoidi la

cui azione sinergica è stata valutata in topi affetti da infiammazione

cronica intestinale".
"I risultati ottenuti dalle prove in vivo, dimostrano chiaramente che

questa combinazione di polifenoli è in grado di migliorare i sintomi

dell'infiammazione intestinale", sottolinea Aurelia Scarano dell'Ispa-Cnr.

"Tra gli effetti benefici riscontrati, abbiamo osservato un miglioramento

nella composizione del microbiota, con arricchimento in batteri lattici

positivi e una riduzione sia nel contenuto di sangue nelle feci sia nella

secrezione di fattori infiammatori".  

"È stato interessante notare come gli effetti benefici di un singolo

pomodoro 'bronzeo' sulle infiammazioni intestinali siano paragonabili

a quelli di 5 Kg di uva rossa, notoriamente ricca in polifenoli",

conclude Giovanna Giovinazzo dell'Ispa-Cnr.
L'ingegneria metabolica rappresenta una risorsa importante che

consentirà di ottenere in futuro alimenti funzionali arricchiti in specifici

elementi fitochimici e dall'elevato potere nutrizionale che potranno essere

utilizzati per la prevenzione e come adiuvanti nella terapia di importanti

patologie croniche umane.

 
 
 

La cultura del vino è nata in Georgia

Post n°1992 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Le Scienze

14 novembre 2017

Otto giare ritrovate in un sito archeologico in

Georgia e risalenti al 6000 avanti Cristo circa

portano tracce del loro antico contenuto: vino.

La scoperta, insieme a prove della coltivazione

della vite, retrodata di 600-1000 anni la nascita

della cultura del vino(red)

archeologiaagricolturaalimentazione

La più antica testimonianza della cultura del vino

risale al 6000-5800 a.C. ed è venuta alla luce grazie

agli scavi in due siti archeologici della Georgia, Gadachrili

Gora e Shulaveris Gora, circa 50 chilometri a sud della

capitale Tbilisi.

La cultura del vino è nata in Georgia

Il sito di Gadachrili Gora. (Cortesia Stephen Batiuk)

La scoperta è di un gruppo di ricercatori del Museo

nazionale della Georgia e dell'Università della Pennsylvania -

in collaborazione anche con l'Università degli studi di Milano

e il Museo lombardo di storia dell'agricoltura a Sant'Angelo

Lodigiano - che firmano 

un articolo sui "Proceedings of the National Academy of Sciences"

Anche se le tracce di uva fermentata più antiche in assoluto

sono state identificate nel 2004 nel sito di Jiahu, nella valle

del Fiume Giallo in Cina, e risalgono addirittura al 7000 a.C.,

non provenivano esattamente da ciò che intendiamo per

vino, ma da una bevanda fermentata prodotta da uva

selvatica, frutti di biancospino, riso e miele.


Finora la più antica traccia conosciuta di produzione

di vino risaliva al 5400-5000 a.C. ed era costituita

da reperti provenienti da Hajji Firuz Tepe, un villaggio

neolitico nella parte più settentrionale dei monti

Zagros, in Iran. La scoperta attuale retrodata

dunque di almeno 600-1000 anni la coltivazione

dell'uva a fini di vinificazione.

Durante gli scavi di Gadachrili Gora e Shulaveris

Gora, sono venuti alla luce i frammenti di una serie

di vasi di ceramica, che sono stati analizzati per

accertare la natura dei residui conservati all'interno.

In otto giare sono state trovate tracce di sostanze

chimiche - in particolare acido tartarico, malico, succinico

e citrico - che indicano l'antica presenza di vino.

I ricercatori hanno anche raccolto una serie di dati

archeologici, botanici, climatici e al radiocarbonio

che dimostrano che la vite eurasiatica Vitis vinifera,

molto abbondante intorno ai due siti, era oggetto

di coltivazione. All'inizio del Neolitico, osservano i

ricercatori, le condizioni ambientali erano ideali per

quella pianta, ed erano molto simili a quelle delle

odierne regioni vinicole italiane e della Francia

meridionale.

"La nostra ricerca suggerisce che uno dei primi

adattamenti allo stile di vita neolitico che si stava

diffondendo nell'area caucasica è stata la viticoltura",

ha detto Stephen Batiuk, coautore dello studio.

"La domesticazione dell'uva ha portato alla fine

alla nascita di una cultura del vino nella regione".

 
 
 

Quando arriveranno le bistecche editate?

Post n°1991 pubblicato il 28 Febbraio 2019 da blogtecaolivelli


Fonte: Le Scienze

11 aprile 2018

Maiali resistenti alla peste suina, polli immuni all'influenza aviaria, mucche adattate alle regioni tropicali. Sono alcuni dei progetti in corso per l'applicazione delle nuove tecniche di editing genomico alla zootecnia, rimasta finora ai margini dell'ingegneria genetica per questioni regolatorie e per la diffidenza dei consumatori. Riuscirà CRISPR a superare questi ostacoli, aprendo la strada a sviluppi che potrebbero rivoluzionare anche il benessere degli animali?di Anna Meldolesi/CRISPerMani

geneticaanimalialimentazione

Se sentiamo la parola OGM, di solito pensiamo alle

piante, non agli animali.

Negli ultimi 20 anni, infatti, il settore zootecnico ha

dovuto rinunciare al contributo dell'ingegneria

genetica per le incertezze regolatorie prima ancora

che per la diffidenza del mercato.

A conti fatti c'è un solo animale transgenico venduto

a scopo alimentare in un solo stato del mondo

(il salmone a crescita rapida AquAdvantage,

approvato in Canada dopo ben due decenni

di attesa), mentre le piante transgeniche sono

coltivate su oltre 180 milioni di ettari in più di

venti paesi.

Ma le nuove biotecnologie ora bussano anche

alle stalle: riusciranno a entrare? Ci sperano

al Roslin Institute, il centro scozzese che ha

dato i natali a Dolly e ora si serve di CRISPR

per rendere i maiali resistenti alla sindrome

riproduttiva e respiratoria PRRSV.

Questa malattia è la più dannosa a livello globale

per la suinicoltura ed è causata da un virus.

Una volta identificato il recettore usato dal

patogeno come porta di ingresso per infettare

le cellule, i ricercatori hanno provveduto a bloccarlo

rimuovendo un pezzetto del gene che lo codifica.

Se tutto andrà come previsto, ora il tratto sarà

introdotto negli animali scelti per la riproduzione

da una società specializzata in breeding dei suini

(Genus PIC). La direttrice del Roslin, Eleanor Riley,

si augura che entro 5 anni questi animali potranno

ottenere il via libera per debuttare in fattoria.


In Scozia si lavora anche su altri filoni, tra cui i

maiali resistenti alla peste suina africana, i polli

immuni all'influenza aviaria, i bovini migliorati per

aumentare la produzione di latte nelle aree tropicali.

Per quest'ultimoprogetto, illustrato su"Foreign Affairs" 

da Bill Gates, gli scienziati del Centre for Tropical

Livestock Genetics and Health dell'Università di

Edimburgo hanno avviato collaborazioni in Etiopia,

Kenia, Nigeria e Tanzania. L'idea è di concentrarsi

sui geni che rendono tanto produttiva la razza

Holstein usata nei grandi allevamenti dei climi temperati

e di correggere di conseguenza il genoma delle vacche

tropicali. Oppure di modificare le Holstein per renderle

più adatte alle condizioni ambientali africane.

In America, invece, gli animali simbolo della nuova

stagione biotech sono le Holstein private delle corna

 per via genetica anziché chirurgica, come si fa

normalmente per evitare che gli animali si feriscano

tra loro.

Quando arriveranno le bistecche editate?

Questa applicazione dell'editing genetico

potrebbe piacere sia agli allevatori che agli

animalisti più pragmatici, perché riduce la

sofferenza degli animali.

A ostacolarne la diffusione però, non solo

nella sospettosa Europa ma anche negli Stati

Uniti, potrebbero essere gli intralci burocratici.

Per una serie di incongruenze di origine storica,

infatti, gli animali editati ricadono sotto l'attenta

supervisione della Food and Drug Administration,

come i farmaci, mentre delle piante editate si

occupa, in modo meno oneroso, il Dipartimento

dell'agricoltura. Se questa disparità dovesse

permanere, sostiene un'analisi pubblicata sull'ultimo

numero del "CRISPR Journal", il settore zootecnico

di fatto faticherà a entrare nell'era CRISPR perché

soddisfare la sovraregolamentazione imporrebbe

tempi e costi proibitivi.

Una soluzione potrebbe essere quella adottata

dall'Argentina: regolamentare gli animali editati come

le piante editate, esonerando dai controlli più

pesanti i prodotti in cui la correzione genetica non

ha richiesto l'inserzione di materiale genetico estraneo.

Vale la pena di ricordare che il miglioramento

convenzionale non è formalmente regolamentato

ma non è di per sé più benevolo, anzi nel corso del

tempo ha portato allo sviluppo di fenotipi estremi

grazie alla selezione di mutazioni spontanee.

Il benessere degli animali, dunque, non dipenderà

da un sì o da un no all'uso di CRISPR, ma da come

decideremo di usare le tecnologie vecchie e nuove.

"L'editing dei genomi non pone problemi inediti

dal punto di vista categoriale, ma portando questi

temi sotto i riflettori può sollecitarci a ripensare il

tipo di rapporto che vogliamo avere col mondo

animale", ci ha detto Simone Pollo della Sapienza

di Roma. "Se poi CRISPR favorisse lo sviluppo della

coltivazione in vitro della carne, questa sì che

sarebbe una rivoluzione per l'etica", ha aggiunto

il bioeticista, autore per Carocci del saggio 

Umani e animali.


(L'originale di questo articolo è stato pubblicato

nel blog CRISPerMania l'11 aprile 2018.

Riproduzione autorizzata, tutti i diritti riservati.)

 
 
 

Birra più costosa in un mondo più cald

Post n°1990 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

16 ottobre 2018

Nei prossimi decenni molto probabilmente ondate di calore e periodi di siccità porteranno a una riduzione delle rese di orzo con conseguente calo della produzione di birra e aumento dei prezzi di questa bevanda alcolica. L'impatto sul mercato però non sarà uniforme ma varierà parecchio da paese a paese(red

pianteclimaalimentazione

In seguito ai cambiamenti climatici, da qui alla fine

del secolo la produzione globale di orzo rischia di

diminuire dal 3 al 17 per cento in media, a seconda

di quello che sarà l'aumento reale delle temperature

globali.

E questa diminuzione si ripercuoterà in maniera

ancora più significativa sul prezzo e sul consumo

di birra, la bevanda alcolica più consumata al mondo.

A sostenerlo è uno studio previsionale effettuato

da ricercatori dell'Università di Pechino e

dell'Università della California a Irvine, che firmano 

un articolo su "Nature Plants".

Benché l'orzo sia il quarto cereale più coltivato al

mondo, non erano ancora state sviluppate previsioni

accurate sulle sue rese in un mondo in cui aumentano

ondate di calore ed episodi di siccità; tanto meno

sull'impatto della riduzione delle rese sul mercato

della birra, che a livello globale assorbe circa un terzo

di tutta la produzione di orzo, sia pure con differenze

assai grandi da paese a paese.

Birra più costosa in un mondo più caldo

I modelli elaborati da Wei Xie, Steven J.

Davis e colleghi hanno esaminato l'effetto sulle rese

dell'orzo dei quattro possibili scenari di cambiamento

climatico previsti dall'Intergovernmental Panel on

Climate Change (IPCC), per poi calcolare la presumibile

ricaduta su produzione, consumo e prezzo della birra.

Questa ricaduta non sarà uniforme nei diversi paesi,

dipendendo da svariati fattori, a partire dalla

destinazione d'uso prevalente dell'orzo prodotto, che

in molte nazioni è impiegato in gran parte come

mangime per animali.

La quota di orzo destinata dall'alimentazione umana

è invece generalmente molto piccola, con le vistose

eccezioni dell'India (77 per cento), dei paesi africani

(40 per cento, con l'esclusione del Sudafrica) edi parte

del Sud America (17 per cento). In un numero elevato

di paesi è quindi presumibile che questi usi, considerati

prioritari, sottrarranno materia prima alla filiera della birra.

L'effetto della scarsità di orzo sul mercato della birra

nei differenti paesi è poi influenzato fortemente

dall'importanza della bevanda nelle diverse culture

e dalla disponibilità a spendere di più per averla;

così i maggiori aumenti di prezzo si concentreranno

in paesi relativamente ricchi e storicamente amanti

della birra. Quindi, in paesi come l'Irlanda, dove

attualmente si consumano in media 276 lattine

da mezzo litro pro capite all'anno, si prevede

che nello scenario climatico peggiore la diminuzione

delle rese dell'orzo possa portare a un aumento

dei prezzi del 193 per cento e a un calo dei consumi

di 81 latine pro capite all'anno.

La maggiore riduzione totale della produzione e dei

consumi si avrebbe comunque nei tre principali paesi

produttori e consumatori di birra: Cina, Stati Uniti e

Germania.

 
 
 

Ancora più antica la storia del cioccolato

Post n°1989 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

30 ottobre 2018

La prima domesticazione della pianta delcacao risale a 5300 anni fa e fu opera dei Mayo-Chinchipe, popolazioni amazzoniche dell'Ecuador sud-orientale. La scoperta smentisce l'ipotesi finora prevalente, che attribuiva il primato a popoli dell'America centrale, dove invece la pianta arrivò quasi 1500 anni dopo(red)

piantearcheologiaalimentazione

La domesticazione della pianta del cacao

(Theobroma cacao) e il suo uso a fini alimentari risale

ad almeno 5300 anni fa, e fu realizzata dalle

popolazioni amazzoniche dell'Ecuador sud-orientale,

e non in America centrale, come finora ritenuto. 

Gli inizi della produzione della materia prima alla

base del cioccolato - che muove un mercato di oltre

120 miliardi di dollari all'anno ed è il prodotto dolciario

più apprezzato al mondo - va dunque anticipata di oltre

1400 anni. A dimostrarlo è stata una ricerca condotta

da un gruppo internazionale di archeologi e genetisti,

che firmano un articolo

 pubblicato su "Nature Ecology and Evolution".

L'idea che Theobroma fosse stata domesticata

per la prima volta in America centrale circa 3900

anni fa si basava sulla ricchezza di prove archeologiche,

etnografiche e iconografiche che testimoniano la

grande importanza, sia rituale che alimentare,

attribuita a questo alimento dalle popolazioni di

quell'area.

Tuttavia, recenti ricerche genomiche hanno

dimostrato che la maggiore diversità genetica

della pianta - ben superiore a quella presente

in America centrale - si trova nelle foreste umide

della regione degli affluenti del Rio delle Amazzoni

superiore.

Ancora più antica la storia del cioccolato

Pianta di Theobroma cacao nella foresta

ecuadoriana (© Science Photo Library / AGF=I

n questa zona - nella regione compresa fra i

fiumi Chinchipe e Marañón - si era sviluppata,

a partire da 5450 anni fa la cultura Mayo-Chinchipe,

che solo di recente ha iniziato a essere studiata

con attenzione, ed è caratterizzata dalla costruzione

anche di edifici in pietra e da un fiorente artigianato

della ceramica.

Analizzando alcuni recipienti in ceramica venuti

alla luce nel 2002 nel sito di Santa Ana-La Florida,

e risalenti a 5500-5300 anni fa, Sonia Zarrillo,

Claire Lanaud e colleghi hanno ora ritrovato al

loro interno microscopicigrani di un amido tipico

di Theobroma; residui di teobromina, un alcaloide

amaro presente nei semi di Theobroma cacao, ma

non nei suoi parenti selvatici; e frammenti di DNA

antico con sequenze uniche diT. cacao, sequenze

per di più molto simili a quelle della cultivar Criollo,

che discende direttamente dalla varietà coltivata

dai Maya e da altre popolazioni precolombiane

del Centro America.

La datazione al carbonio 14 dei reperti è stata poi

confermata anche dall'analisi dei danni al DNA

riscontrati nei residui organici.

Poiché esistono prove archeologiche di scambi

commerciali fra le popolazioni Mayo-Chinchipe

dell'interno con quelle della cultura di Valdivia -

una delle più antiche del Sud America, fiorita

sulla costa del Pacifico dell'Ecuador - gli autori

ipotizzano che questa sia stata la prima tappa

del lungo viaggio che avrebbe poi portato il cacao

in America centrale.

 
 
 

Per i buongustai IPALB

Post n°1988 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

fonte: Le Scienze

Cresce l'interesse per la carne coltivata in laboratorio

Negli ultimi anni, diverse aziende hanno investito

decine di milioni di dollari nello sviluppo della

cosiddetta "carne pulita", come è spesso chiamata l

a carne ottenuta in laboratorio a causa del suo

carattere ecologico ed etico.

Tuttavia, malgrado l'aumento di interesse, ci sono

ancora vari ostacoli tecnici, dovuti in parte alla

carenza di ricerche scientifiche non coperte dal

segreto commercialedi Elie Dolgin / Nature

alimentazionebiologiatecnologia

Gli investimenti privati nella carne prodotta in

laboratorio sono in forte crescita, e le aziende

inseguono la promessa di polpette, bistecche

e hamburger coltivati in vitro invece che ottenuti

da bestiame d'allevamento.

Negli ultimi due anni, le start-up per la "carne pulita"

hanno rastrellato decine di milioni di dollari da

miliardari come Bill Gates e Richard Branson, e

dai giganti dell'agricoltura Cargill e Tyson.

Ma i finanziamenti alla ricerca accademica sulla

carne prodotta in laboratorio sono rimasti indietro,

e alcuni ricercatori dicono che è assolutamente

necessaria.

Nonostante il boom dell'interesse commerciale per lo

sviluppo di una carne ecologica ed eticamente corretta,

i critici sostengono che l'industria non possiede

gran parte delle competenze scientifiche e ingegneristiche

necessarie per portare la carne prodotta in laboratorio

alle masse. Inoltre, i progressi compiuti dalle aziende

commerciali sono spesso protetti dal segreto commerciale.

"Ci sono molti ostacoli tecnici da superare",

dice Paul Mozdziak, un biologo esperto in strutture

muscolari della North Carolina State University a Raleigh,

che studia la carne di pollo e tacchino prodotta in

laboratorio.

Le sfide includono lo sviluppo di linee cellulari migliori

e di mezzi nutritivi per alimentarle, di materiali

"da impalcatura" che aiutino a trasformare le cellule

coltivate in tessuto, e una piattaforma per i bioreattori

necessari alla produzione di carne su larga scala.

In questo campo, la ricerca open-source ha avuto una

spinta il 6 febbraio, quando il Good Food Institute (GFI)

- un think-tank di Washington DC che promuove

alternative alla carne convenzionale - ha annunciato

i vincitori del suo primo programma di sovvenzioni.

I 14 progetti vincitori si divideranno 3 milioni di dollari:

6 di essi sono dedicati allo sviluppo della carne di l

aboratorio e 8 che si concentrano sulle proteine vegetali.

Ogni gruppo riceverà fino a 250.000 dollari in due anni.

"A quanto ne so, è il più maggiore contributo alla

ricerca sull'agricoltura cellulare", dice Kate Krueger,

direttrice della ricerca alla New Harvest,

un'organizzazione no-profit di New York City che nell'ultimo

decennio ha contribuito con quasi un milione di dollari

agli studi accademici sulla ricerca sulle carni pulite.


Distribuire i finanziamenti
Un settore in cui il denaro potrebbe fare la differenza

è lo sviluppo di linee cellulari pubblicamente disponibili

derivate dai muscoli di mucche, maiali, pesci e altri

comuni animali da alimentazione.

Senza quelle cellule, i ricercatori devono ottenere

tessuti freschi dai macelli o condurre i loro esperimenti

con cellule di topo. Il Norwegian Center for Stem Cell

Research di Oslo prevede di usare una sovvenzione

del GFI per aiutare a costruire il suo Frozen Farmyard,

un deposito di linee cellulari di rilevanza agricola.

Altri ricercatori vogliono applicare quanto appreso in

decenni di ricerca nel campo della medicina rigenerativa.

Amy Rowat, biofisica all'Università della California a Los

Angeles, che normalmente studia la biomeccanica delle

cellule tumorali, sta cercando di progettare impalcature

su cui possano crescere combinazioni di diversi tipi di

cellule bovine allo scopo di permettere la marmorizzazione

del grasso nelle bistecche coltivate in laboratorio.

Cresce l'interesse per la carne coltivata in laboratorio

AGF"Si tratta degli stessi principi di base

dell'ingegneria tissutale", dice Andrew Stout,

un membro della New Harvest e specializzando

alla Tufts University a Medford, in Massachusetts.

"Ma dobbiamo iniziare a pensare ai vincoli di

progettazione da una prospettiva alimentare e

di sostenibilità".

Gli imprenditori del settore, da parte loro, dicono

che sperano di vedere un maggior numero di

scienziati dedicarsi a queste ricerche.

L'industria ha bisogno di "approcci innovativi alla

produzione biologica ad alto rendimento di carne

a base di cellule", dice Nicholas Genovese, direttore

scientifico della Memphis Meats a Berkeley.

"La ricerca accademica può svolgere un ruolo

significativo e duraturo nell'accelerare il cammino

verso il mercato".

Dov'è il manzo?
Le ricerche per la coltivazione di carne in provetta

risalgono a decenni fa. Negli anni novanta, il ricercatore

e imprenditore olandese Willem van Eelen raccolse

fondi per la ricerca da investitori privati, ottenendo 

il primo brevetto per una carne pulita.

In seguito convinse il governo olandese a concedere

2 milioni di euro a un consorzio di scienziati interessati

a portare avanti il lavoro.

Questo portò Mark Post, un biologo vascolare

dell'Università di Maastricht, a presentare al mondo

nel 2013 il primo hamburger coltivato in laboratorio,

al costo di 250.000 euro.

Ma i finanziamenti pubblici per il progetto non arrivarono

perché i legislatori olandesi diedero la priorità alla ricerca

di fonti proteiche vegetali più economiche, come le farine

di fagioli e le proteine dei piselli, dice Post, che da allora

ha fondato a Maastricht l'azienda di tecnologia

alimentare Mosa Meat.

E a parte alcune occasionali sovvenzioni pilota, come

quella della NASA alla fine degli anni novanta per lo

sviluppo di carne di pesce in vitro, poche agenzie

governative hanno investito cifre significative in

questa ricerca, in gran parte - dicono gli esperti -

perché è rischiosa, complessa e interdisciplinare.

Negli Stati Uniti, il National Institutes of Health

finanzia la maggior parte delle ricerche sull'ingegneria

tissutale, ma si concentra sulle applicazioni biomediche;

il Dipartimento dell'agricoltura finanzia la maggior parte

degli studi di scienza alimentare, ma spende poco

per la carne coltivata in laboratorio.

"E' una terra di mezzo", dice Amit Gefen, bioingegnere

all'Università di Tel Aviv, in Israele, che sta cercando

di coltivare carne di pollo su impalcature create

spogliando la polpa di mela delle sue cellule.

In alcuni paesi, le opportunità di finanziamento

stanno lentamente cominciando a spuntare.

L'Israel Innovation Authority finanzia la start-up Aleph Farms,

il cui lavoro si basa sulla ricerca dell'ingegnere

biomedico Shulamit Levenberg al Technion-Israel

Institute of Technology ad Haifa. L'IIA sta mettendo

a disposizione più di 100 milioni di shekel

(27,7 milioni di dollari) in otto anni per creare un

incubatore tecnologico alimentare che concorra a

sostenere molti altri spin-off universitari di questo tipo.


Non così di base
Gli investimenti privati nel settore delle carni

pulite hanno già ridotto i costi di produzione.

Post dice di poter produrre un hamburger da

140 grammi per 500 euro. Secondo Levenberg

la sua azienda può coltivare una piccola bistecca

per circa 50 dollari.

E in vista della prevedibile ulteriore discesa dei

prezzi, alcuni scienziati contestano che la ricerca

di base nella coltivazione della carne  sia carente.

"Stiamo prendendo una cosa che funziona con

gli esseri umani e con i topi e la trasferiamo

nelle cellule bovine", dice Yaakov Nahmias,

ingegnere biomedico all'Università ebraica di

Gerusalemme, e amministratore delegato della

Future Meat Technologies, una start-up israeliana.

"Non sono così sicuro che stiamo ancora parlando

di scienze di base."

Ma, come per qualsiasi prodotto di prima

generazione, c'è spazio per miglioramenti, dice Ido

Savir, amministratore delegato della SuperMeat

a Rehovot, Israele. Le prime carni coltivate in laboratorio

saranno più simili a quelle che si trovano nei fast food

che nell'alta cucina, osserva Ido Savir.

Quel primo gruppo aiuterà a "gettare le basi per una

nuova industria", ma quello che serve, dice Savir, è

"creare un nuovo campo scientifico".

--------------------------
(L'originale di questo articolo è stato pubblicato su

"Nature" il 6 febbraio 2019. Traduzione ed editing a

cura di Le Scienze. Riproduzione autorizzata, tutti

i diritti riservati.)

 
 
 

L'uccello e la farfalla: un nuovo modello della capacità di generalizzare

Post n°1987 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Internet

11 maggio 2018

La capacità di fare generalizzazioni a partire

da singole esperienze è essenziale per la

sopravvivenza, ma se la generalizzazione

è sbagliata - troppo ampia o troppo limitata -

può avere l'effetto contrario.

Una nuova teoria sui fondamenti di questa

capacità, perfezionando modelli precedenti,

potrebbe permettere di applicarla in modo corretto

anche nei sistemi di intelligenza artificiale(red)

comportamentopsicologiacomputer science

Un nuovo modello matematico della nostra capacità

di generalizzare a partire dalle esperienze è stato

proposto da Chris R. Sims, ricercatore del

Rensselaer Polytechnic Institute a Troy, nello

stato di New York, in un articolo pubblicato su "Science".

Lo studio si inserisce nel filone delle ricerche

per rendere sempre più accurati gli algoritmi

usati nell'intelligenza artificiale e in particolare

nell'apprendimento automatico.

Saper fare generalizzazioni corrette è essenziale

per la sopravvivenza. Per esempio, se un uccello

mangia una farfalla velenosa o sgradevole,

imparerà rapidamente a evitare tutti gli insetti

che le assomigliano.

Il problema è che, per quanto simili, non esistono

due specie di farfalle esattamente uguali.

Se la generalizzazione è troppo limitata, l'uccello

continuerà a consumare farfalle tossiche.

Se invece la generalizzazione è troppo ampia,

portandolo a evitare tutte le farfalle, si priverà i

nutilmente di una fonte alimentare, riducendo la

propria fitness, ossia la capacità adattativa

all'ambiente.

L'uccello e la farfalla: un nuovo modello della capacità di generalizzare

© Biosphoto / AGFNel 1987 lo psicologo cognitivista

Roger N. Shepard propose quella che chiamò

"legge universale di generalizzazione", secondo

cui la probabilità che la risposta a uno stimolo

sia generalizzata a un altro stimolo diminuisce

in base a una funzione esponenziale della loro

distanza all'interno di un appropriato

"spazio psicologico".

Grazie a opportune formalizzazioni dell'idea di

distanza fra due stimoli è stato possibile testare

la validità della legge di Shepard. Tuttavia, pur

funzionando bene in molte situazioni, questi modelli i

ncontrano delle difficoltà via via che lo stimolo è più

complesso e l'ambiente è "rumoroso",ossia fonte di

possibili fattori che confondono: un difetto che

diventa particolarmente evidente negli algoritmi

utilizzati nei sistemi di intelligenza artificiale.

(Basti pensare agli algoritmi di Facebook che

cancellano un'immagine di nudo generalizzandola

come pornografica anche se magari è la

Primavera di Botticelli).

Nel nuovo studio Sims propone una spiegazione

della legge universale di generalizzazione che

parte da una prospettiva differente.

In particolare, dimostra che la forza della generaliz-

zazione è strettamente legata al costo dell'errore

percettivo che può provocare: per esempio, portando

l'uccello a considerare velenosa la farfalla mentre

è commestibile, o al contrario a ritenerla innocua

quando lo è.

Sims prospetta quindi una formalizzazione basata

sul cosiddetto principio di codifica efficiente,

secondo il quale - date alcune limitazioni, come la

quantità di memoria disponibile e l'incertezza nelle

informazioni sensoriali - i sistemi biologici sono

ottimizzati per impiegare le minori risorse di

elaborazione possibile per ottenere le massime

prestazioni. In parole povere, per ottenere il massimo

del risultato al minimo del costo.

Integrando queste due prospettive, osserva Shepard,

dovrebbe essere possibile far compiere un ulteriore

salto di qualità agli algoritmi usati nei sistemi di

intelligenza artificiale, mettendoli in grado di effettuare

generalizzazioni corrette.

 
 
 

Un entanglement tra migliaia di atomi ultrafreddi

Post n°1986 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

 

27 aprile 2018

Un entanglement tra migliaia di atomi ultrafreddi

Tre studi pubblicati su "Science" segnano un

punto di svolta per lo sfruttamento dell'entanglement

a fini pratici: questo fenomeno quantistico è

stato dimostrato per un gra

 scienceGli esperti già la chiamano la seconda

rivoluzione quantistica. Dopo la prima grande

stagione di scoperte pionieristiche dei primi decenni

del Novecento e le conoscenze seguite per tutto

un secolo, i tempi sembrano maturi per applicare

queste conoscenze a fini pratici, nelle tecnologie

del calcolo automatico, delle telecomunicazioni e

dei sensori.

La svolta arriva da una sempre maggiore capacità

di manipolare e controllare gli oggetti del micromondo

con un'elevata precisione e stabilità nel tempo.

La riprova di questa nuova fase delle applicazioni

quantistiche si può avere sfogliando le pagine di

"Science" che questa settimana pubblica ben tre

articoli sull'argomento, frutto di altrettante ricerche

indipendenti. Cuore della ricerca, in tutti e tre i casi,

è lo sfruttamento del fenomeno quantistico

 

dell'entanglement.

Il termine si riferisce alla possibilità, grazie a un'opportuna

preparazione sperimentale, di mettere in correlazione tra

loro gli stati quantistici di sistemi microscopici, siano

essi fotoni, atomi o altre particelle.

Ora, questa correlazione ha una caratteristica

straordinaria, che non mancò di sconvolgere molti grandi

fisici tra cui Albert Einstein: se si conduce una misurazione

quantistica su una delle due particelle, questa fa

"collassare" lo stato della particella su un dato valore.

E corrispondentemente, fa collassare lo stato della

seconda particella su un altro valore, correlato al primo.

Questo fenomeno di precipitazione coordinata dei

sistemi quantistici avviene in modo istantaneo, anche

se apparentemente non c'è stata alcuna comunicazione

tra i due. E il dato ancora più sorprendente è che

il fenomeno vale anche se tra le due particelle viene

interposta una distanza arbitraria, al punto che a

questa comunicazione istantanea è stato attribuito

un nome mutuato dalla fantascienza: teletrasporto

quantistico.

Un entanglement tra migliaia di atomi ultrafreddi

Illustraizone dell'entanglement tra due

particelle (Science Photo Library RF / AGF)

Dopo molti decenni di riflessioni teoriche su come

avrebbe potuto manifestarsi, il teletrasporto

quantistico è stato dimostrato sperimentalmente

a partire dalla fine degli anni novanta, con

sistemi microfisici sempre più vari e sempre

più complessi, tanto da alimentare una serie

di studi su come sfruttare il teletrasporto, per

esempio, per far comunicare tra loro le unità di

base di un ipotetico computer quantistico, in cui

sistemi di dimensioni atomiche o molecolari

possono sostituire i componenti elettronici dei

computer convenzionali.

Una delle difficoltà maggiori in questo campo di

ricerca è che l'entanglement è una proprietà

estremamente delicata e volatile.

La sua generazione richiede operazioni estrema-

mente precise e livelli di rumore molto bassi.

Ci sono generalmente due approcci per l'entanglament.

Il primo richiede la capacità di controllare ciascuna

particella e di metterla in entanglement con un'altra

con interazioni appropriate. Usando questa strategia,

i fisici sono riusciti, per esempio, a realizzare stati

entangled di un massimo di 10 fotoni e 20 ioni.

Il secondo approccio riguarda il confinamento

delle particelle e l'applicazione di operazioni globali

controllate al fine di farle interagire collettivamente

ed evolvere in uno stato entangled.

Questa idea è stata usata per intrappolare migliaia

di atomi nei condensati di Bose-Einstein, uno stato

di materia mantenuto a temperature estremamente

basse in cui tutti gli atomi si comportano collettivamente

come se fossero un'unica entità fisica.

In questo secondo caso, il numero di particelle coinvolte

è enorme ma la mancanza di controllo sulle singole

entità implica che si tratta di un approccio difficilmente

applicabile ai compiti di informazione quantistica.

I tre studi pubblicati da "Science" hanno usato tutti il

secondo approccio dimostrando un passo importante

verso un maggiore controllo sull'entanglement che

viene prodotto. In ciascun caso gli autori hanno

prodotto una nube di atomi ultrafreddi e li hanno

successivamente separati, dimostrando poi l'esistenza

dell'entanglement tra le due nubi più piccole seguendo

tre approcci diversi.

Nel primo articolo, Matteo Fadel, dell'Università di Basilea,

in Svizzera, e colleghi, hanno utilizzato alcune centinaia

di atomi di rubidio-87.

Karsten Lange della Leibniz Universität ad Hannover,

in Germania, e colleghi, autori del secondo articolo,

hanno utilizzato un campione di ben 20.000 atomi di

rubidio-87, riuscendo a indurre l'entanglement su circa 5000.

Nel terzo articolo, Philipp Kunkel, dell'Università di

Heidelberg, in Germania, e colleghi, hanno utilizzato

sempre atomi di rubidio-87 arrivando a 11.000 atomi

tutti entangled.

I tre articoli dimostrano dunque la flessibilità dei

condensati di Bose-Eistein nella generazione e nella

rilevazione dell'entanglement con campioni di atomi

di diverse dimensioni, da alcune centinaia a diverse

migliaia. Al di là degli aspetti tecnici, si tratta di una

pietra miliare per le possibilità applicative.

 
 
 

CNR: L'intelligenza artificiale esplora il clima e trova conferme e novità

Post n°1985 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

 

12 gennaio 2018

Comunicato stampa -

In una ricerca dell'Iia-Cnr, pubblicata sulla rivista

Scientific Reports del gruppo Nature, reti di neuroni

artificiali - che apprendono il funzionamento del

sistema climatico dai dati osservati nel passato -

confermano le azioni umane come causa principale

del riscaldamento globale recente e conducono a

nuove scoperte sui cambiamenti climatici dell'ultimo

secolo

computer sciencetecnologiaclima

Roma, 12 gennaio 2018 -

Le applicazioni dell'intelligenza artificiale (IA), sia in

ambito scientifico che tecnologico, sono molto numerose.

Pochi, tuttavia, si aspetterebbero che l'IA possa aiutarci

a comprendere le origini di un problema attuale e

pressante come quello dei cambiamenti climatici.

Una ricerca recente dell'Istituto sull'inquinamento

atmosferico del Consiglio nazionale delle ricerche

(Iia-Cnr), pubblicata sulla rivista Scientific Reports

del gruppo Nature e condotta in collaborazione con

l'Università di Torino e l'Università di Roma Tre, ha

mostrato come modelli di reti di neuroni artificiali

(le cosiddette reti neurali) siano in grado di 'comprendere'

i complessi rapporti tra i vari influssi umani o naturali e

il comportamento climatico.

"Il cervello di un bambino che cresce aggiusta pian piano

i propri circuiti neuronali e impara infine semplici regole

e relazioni causa-effetto che regolano l'ambiente in cui

vive, per esempio per muoversi correttamente all'interno

di esso", spiega Antonello Pasini, ricercatore dell'Iia-Cnr

e primo autore della ricerca. "Come questo bimbo,

il modello di cervello artificiale che abbiamo sviluppato

ha studiato i dati climatici disponibili e ha trovato le

relazioni tra i fattori naturali o umani e i cambiamenti del

clima, in particolare quelli della temperatura globale".

Finora, l'individuazione delle cause del riscaldamento

del pianeta è studiata quasi esclusivamente mediante

modelli climatici globali che utilizzano la nostra conoscenza

fisica del funzionamento dell'atmosfera, dell'oceano

e delle altre parti che compongono il sistema clima.

"Tutti questi modelli attribuiscono alle azioni umane,

in particolare all'emissione di gas serra come

l'anidride carbonica, l'aumento delle temperature

nell'ultimo mezzo secolo, e questa uniformità di

risultati non sorprende, poiché i modelli sono piuttosto

simili tra loro. Un'analisi completamente diversa

consentirebbe pertanto di capire meglio se e quanto

questi risultati siano solidi", continua Pasini.

Questo è quanto hanno realizzato i ricercatori,

con un modello che 'impara' esclusivamente dai

dati osservati e non fa uso della nostra conoscenza

fisica del clima. "In breve - evidenzia Pasini -

le reti neurali da noi costruite confermano che la

causa fondamentale del riscaldamento globale

degli ultimi 50 anni è l'aumento di concentrazione

dei gas serra, dovuto soprattutto alle nostre combustioni

fossili e alla deforestazione. Ma il nostro modello

permette di ottenere di più: ci dà informazioni sulle

cause di tutte le variazioni di temperatura dell'ultimo

secolo. Così, si vede che, mentre l'influsso solare

non ha avuto alcun peso sulla tendenza all'aumento

degli ultimi decenni, le sue variazioni hanno causato

almeno una parte dell'incremento di temperatura

cui si è assistito dal 1910 al 1945.

La pausa nel riscaldamento registrata tra il 1945 e il

1975, invece, è dovuta all'effetto combinato di un ciclo

naturale del clima visibile particolarmente nell'Atlantico

e delle emissioni antropiche di particelle contenenti

zolfo, a loro volta causa di cambiamenti nel ciclo

naturale".

La ricerca chiarisce quindi nel dettaglio i ruoli umani e

naturali sul clima. "E conferma la conclusione che i primi

siano stati molto forti e influenti almeno a partire dal

secondo dopoguerra", conclude Pasini.

"Ma questa non è una notizia negativa, anzi: significa

che possiamo agire per limitare le nostre emissioni ed

evitare conseguenze peggiori anche in Italia, paese

particolarmente vulnerabile dal punto di vista climatico-

ambientale".

 
 
 

ICTP: La Medaglia Dirac 2017 ai pionieri dei computer quantistici

Post n°1984 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

 

09 agosto 2017

ICTP: La Medaglia Dirac 2017 ai pionieri dei computer quantistici

Comunicato stampa - Proclamati ieri i vincitori

del prestigioso premio conferito dall'ICTP di Trieste.

Si tratta di tre scienziati protagonisti dello sviluppo

della computazione quantistica negli ultimi decenni

del secolo scorso.

computer sciencefisicaeventi

Trieste, 9 agosto 2017. Sono Peter W. Shor (MIT, USA),

Charles H. Bennett (IBM Watson Research Center, USA)

e David Deutsch (Oxford University, UK)

i vincitori della Medaglia Dirac 2017, il riconoscimento

che il Centro Internazionale di Fisica Teorica "Abdus Salam"

(ICTP) di Trieste assegna annualmente a scienziati

affermati nel campo della fisica teorica.

"Quest'anno viene premiato il lavoro pionieristico di tre

ricercatori che, applicando la loro profonda conoscenza

della teoria quantistica alla risoluzione di problemi

fondamentali del calcolo, dell'informatica e della

comunicazione, hanno posto le fondamenta del

quantum computing" dice il direttore dell'ICTP

Fernando Quevedo.

Un secolo dopo la nascita della meccanica quantistica

e una trentina d'anni dopo l'avvento della quantum

information, siamo oggi sempre più vicini ad applicazioni

tecnologiche reali. Le potenzialità di un computer

quantistico potrebbero essere presto sfruttate

in vari contesti: dalla crittografia all'intelligenza

artificiale, dalla finanza alle previsioni metereologiche.

Le conoscenze acquisite in questo settore hanno

avuto anche importanti ricadute in molti rami della

fisica, dallo stato solido alla teoria dei campi, e

hanno portato a sviluppi sperimentali nel controllo

di oggetti quantistici. Queste idee sono oggi alla

base delle tecnologie quantistiche emergenti.

Peter W. Shor, professore di matematica applicata

presso l'MIT, sviluppando un algoritmo per risolvere

il problema numerico della fattorizzazione di grandi

numeri, nel 1994 dimostrò per la prima volta

l'incomparabile potenza di calcolo di un computer

quantistico rispetto a quelli tradizionali.

Altro fondamentale contributo dell'informatico

statunitense è l'introduzione di un codice di

correzione degli errori (QEC, quantum error correction)

che consente di proteggere l'informazione da fenomeni

di decoerenza e rumore che la renderebbero

inutilizzabile.

Charles H. Bennett, informatico e crittografo oggi

impiegato nei laboratori di ricerca IBM, ha applicato

le leggi della meccanica quantistica a problemi l

egati allo scambio e al flusso di informazioni,

contribuendo allo sviluppo della quantum information.

Nel 1984 definisce la cosiddetta "computazione

classica reversibile", in grado di migliorare l'efficienza

dei calcolatori; nello stesso anno, introduce il concetto di

"distribuzione di chiave quantistica": si tratta di un

meccanismo di crittografia che, sfruttando il principio

di indeterminazione, consente a due enti separati di

produrre e condividere una chiave segreta comune

casuale, aumentando così la sicurezza dei processi

di comunicazione. Nel 1993 definisce il teletrasporto

quantistico.

David Deutsch, dal 1999 professore presso

l'Università di Oxford, è considerato da molti il padre

fondatore dei quantum computer: nel 1985 definisce

la versione quantistica della macchina di Turing,

dimostrando alcune ipotesi già avanzate da Richard

Feynman sulla fattibilità di questi strumenti di nuova

generazione; qualche anno più tardi, introduce i

concetti di porta logica e circuito quantistici.

Inoltre, dimostra che il principio di sovrapposizione,

in base al quale ogni stato può essere rappresentato

come somma di due o più altri stati quantistici distinti,

permette di risolvere alcuni problemi con una velocità

di molto superiore rispetto ai computer tradizionali.

La Medaglia Dirac, assegnata annualmente dall'ICTP

fin dal 1985, celebra la figura di Paul Maurice Dirac,

uno dei padri della fisica moderna e vincitore del premio

Nobel per la fisica nel 1933. Si tratta di un premio

molto ambito tra gli scienziati, soprattutto tra i fisici

teorici: in passato è stato infatti preludio di altri

importanti riconoscimenti tra cui cinque premi Nobel

e una medaglia Fields. Come ogni anno, la proclamazione

dei vincitori è avvenuta l'8 agosto, giorno del

compleanno di Dirac.

 
 
 

Una macchina quantistica alla ricerca del bosone di Higgs

Post n°1983 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Le Scienze

24 ottobre 2017

Un nuovo studio ha dimostrato le potenzialità di

una macchina quantistica nella ricerca delle tracce

del bosone di Higgs tra l'enorme mole di dati raccolti

dagli esperimenti ATLAS e CMS al CERN di Ginevra.

Per adesso, le sue prestazioni non superano quelle

dei programmi di apprendimento automatico basati

su calcolatori convenzionali, ma in futuro le cose

potrebbero cambiardi Davide Castelvecchi/Nature

computer sciencefisica delle particelle

Un computer quantistico rudimentale ha riscoperto

il bosone di Higgs. O qualcosa del genere.

I fisici hanno lavorato duramente per sviluppare macchine

che possono usare i fenomeni bizzarri della meccanica

quantistica per rendere più veloce il calcolo automatico.

Ma sperano anche che questi computer quantistici possano

restituire il favore, aiutandoli a scoprire nuove leggi della natura.

Una macchina quantistica alla ricerca del bosone di HiggsRappresentazione artistica della comunicazione

tra due atomi in un computer quantistico

(Credit: Science Photo Library/AGFOra un gruppo di

ricerca ha dimostrato che un circuito quantistico può

imparare a mettere ordine in pile enormi di dati ricavati

da esperimenti di collisioni di atomi che hanno come

obiettivo la ricerca di una nuova particella.

Il loro studio dimostrativo, condotto usando una macchina

costruita dalla società di calcolo quantistico D-Wave,

che ha lavorato sul caso ora familiare del bosone di Higgs,

non fornisce ancora un chiaro vantaggio rispetto alle

tecniche convenzionali. Ma gli autori, che firmano

un articolo su "Nature", sostengono che l'apprendimento

automatico della macchina quantistica potrebbe fare la

differenza nei futuri esperimenti, quando le quantità di

dati cresceranno ancora.

Kyle Cranmer, fisico della New York University che non

era coinvolto nel lavoro, sostiene che è  na boccata

d'aria fresca vedere una macchina quantistica applicata

un problema fisico pratico, invece che alle solite

questioni matematiche, come la fattorizzazione di

numeri interi in numeri primi. "Prima d'ora, le persone

erano consapevoli che questo avrebbe potuto essere

rilevante", spiega. "Questo ci fa capire come forse

potrebbe essere".

Soluzioni ottimali

Nel  2012, due esperimenti presso il Large Hadron

Collider (LHC) del CERN, il laboratorio per la fisica

delle alte energie vicino a Ginevra, in Svizzera,

annunciarono di aver dimostrato l'esistenza del

bosone di Higgs, l'ultimo pezzo mancante del modello

standard della fisica delle particelle. I due esperimenti,

CMS e ATLAS, trovarono la prova del bosone creato

nelle collisioni di protoni dal modo in cui l'Higgs

decadeva in particelle più comuni, come fotoni ad

alta energia. Ma ogni volta che due protoni collidono

all'interno di LHC, centinaia di particelle vengono

create, alcune delle quali possono essere scambiate

per fotoni quando colpiscono i rivelatori.

Per velocizzare la loro ricerca dell'Higgs, i fisici di ATLAS

e CMS hanno simulato i dati per addestrare gli algoritmi

di apprendimento automatico in grado di separare

il grano dal loglio, i fotoni dagli impostori.

Più di recente, la fisica delle particelle Maria Spiropulu,

che ha aiutato a guidare la ricerca dell'Higgs con CMS,

voleva sapere se un computer quantistico potesse

aiutare a rendere il processo di apprendimento più

efficiente, in particolare riducendo la quantità di dati 

simulati richiesti per addestrare il sistema.

"Volevo capire se fosse in grado di risolvere il problema

dell'Higgs, perché è quello che conosco", ha spiegato

Spiropulu, che lavora al California Institute of Technology

di Pasadena.

Il suo collaboratore Alex Mott, fisico che ora lavora press

la DeepMind di Londra, ha tradotto il processo di

apprendimento in qualcosa che potrebbe essere calcolato

da un computer a 'ricottura quantistica' costruito dalla

D-Wave, che ha sede a Burnaby, in Canada.

Questo tipo di macchina trova le soluzioni ottimali a certi

problemi permettendo ai loop di superconduzione,

che codificano informazione quantistica, di porsi nel

loro stato di minima energia.

L'idea era che la macchina quantistica potesse

trovare i criteri ottimali che un computer ordinario

avrebbe potuto usare per cercare le "firme" del

fotone nei dati reali di Higgs.

Per verificare la loro teoria, il gruppo ha avuto

accesso alla macchina D-Wave machine dell'Università

della Southern California a Los Angeles.

L'esperimento ha avuto successo, ha spiegato

Spiropulus: "possiamo fare l'addestramento con

piccolissimi insiemi di dati e trovare la soluzione

ottimale".

I ricercatori non hanno usato questi criteri per

riscoprire l'Higgs, perché non ne avevano bisogno.

Dimostrare che era possibile era la parte più

importante del loro lavoro, ha spiegato

Cranmer, specialista di analisi dei dati che ha

partecipato alla ricerca dell'Higgs nella collaborazione

ATLAS.

Oltre la fisica

Per ora, non dobbiamo aspettarci che i fisici si

convertano ai computer quantistici: finora, la

macchina non si è comportata meglio della

versione virtuale di se stessa che Spiropolu e il

suo gruppo hanno fatto "girare" su un computer

convenzionale. E c'è ancora una lunga strada da

fare per dimostrare che queste tecniche sono più

efficienti di alcuni algoritmi di apprendimento

automatico esistenti, che sono in grado di

addestrarsi su insieme di dati relativamente piccoli,

spiega Cranmer. Spiropulu è d'accordo, e aggiunge

che sarà necessario confrontare i vari approcci l

'uno rispetto all'altro per capire qual è il migliore.

Ma i risultati potrebbero avere un impatto in

campi oltre la fisica. Davide Venturelli, fisico che

lavora per la Universities Space Research Association

and e per l'Ames Research Center della NASA

di Mountain View, in California, gestisce un programma

che rende la macchina D-Wave situata ad Ames

(gestita in modo congiunto da Google e dalla NASA)

disponibile agli sperimentatori di tutto il mondo.

I ricercatori in campi che vanno dalle scienze della

Terra alla bioinformatica sono interessati a usare

la ricottura quantistica, in particolare per l'applicazione

dell'apprendimento automatico, spiega.

"La cosa interessante è che tutto funziona",

spiega Mott.

(L'originale di questo articolo è stato 

pubblicato su Nature il 19 ottobre 2017.

Traduzione ed editing a cura di Le Scienze.

Riproduzione autorizzata, tutti i diritti riservati)

 
 
 

Il programma Alpha Go

Post n°1982 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Le Scienze

23 ottobre 2017

Nel 2016 per la prima volta il programma

d'intelligenza artificiale AlphaGo ha sconfitto

un campione umano nel gioco tradizionale di

strategia Go. Ma i creatori del programma

hanno da poco lanciato AlphaGo Zero che,

oltre a surclassare le prestazioni il suo

predecessore, non ha bisogno di un addestra-

mento umano perché impara da zero giocando

contro se stesso, trovando mosse originali e

vincenti mai viste prima

di Larry Greenemeier/Scientific American

computer scienceintelligenza artificiale

All'inizio di quest'anno il programma di intelligenza

artificiale AlphaGo ha messo fine a 2500 anni di

supremazia dell'umanità nel giochi da scacchiera.

Non soddisfatta della vittoria 3-0 contro il più forte

giocatore al mondo, DeepMind Technologies, la

società che ha creato AlphaGo, ha annunciato

mercoledì una versione migliorata, AlphaGo Zero,

che ha surclassato il suo predecessore in un

confronto di IA, vincendo tutte e 100 le partite

giocate.

Ma forse ancora più significativo di queste vittorie

è il modo in cui AlphaGo Zero è diventato così

dominante.

A differenza dell'originale AlphaGo, che DeepMind

ha addestrato nel tempo usando conoscenze e

supervisioni umane a profusione, l'algoritmo del

nuovo sistema si è autoaddestrato a padroneggiare

il gioco.

L'IA consente ai computer di riconoscere i volti, di

dare consigli per gli acquisti online e anche di

parcheggiare l'auto in modo corretto.

I computer acquisiscono queste abilità grazie ad

"algoritmi di apprendimento" scritti da esseri umani

che inseriscono enormi quantità di dati di addestra-

mento in una rete neurale artificiale

(così chiamata per la sua capacità di elaborare le

informazioni in un modo liberamente ispirato alla

struttura delle cellule nervose del cervello).

Il programma di IA che sbaraglia tutti a Go

Credit: age Fotostock/AGF

Questo processo è chiamato apprendimento automatico.

AlphaGo ha dovuto analizzare milioni di mosse

fatte da esperti umani e giocare molte, molte partite

contro se stesso per afforzare ciò che apprendeva.

A maggio AlphaGo ha sconfitto Ke Jie, il miglior

giocatore umano del mondo.

Nel marzo del 2016 ha battuto un altro giocatore

top, Lee Sedol, con l'ausilio di reti neurali multiple,

i cui computer richiedevano 48 unità di elaborazione

tensoriale (TPU), microchip specializzati appositamente

progettati per la realizzazione di reti neurali.

L'addestramento di AlphaGo Zero ha coinvolto

quattro TPU e un'unica rete neurale che inizialmente

non sapeva nulla di Go. L'IA ha imparato senza

supervisione: ha semplicemente giocato contro

se stesso e presto è stato in grado di anticipare

le proprie mosse e la loro possibile influenza sul

risultato di una partita.

"Questa tecnica è più potente delle versioni

precedenti di AlphaGo perché non è più vincolata

dai limiti della conoscenza umana", secondo un

post scritto in un blog da Demis Hassabis,

co-fondatore di DeepMind e da David Silver, che

guida il gruppo di ricerca sull'apprendimento

mediante rinforzo dell'azienda. (DeepMind è

una divisione di Alphabet, Inc., casa madre di Google).

Un problema dell'IA basata sempre sulla

conoscenza umana è che le informazioni possono

essere troppo costose, troppo inaffidabili o

semplicemente inesistenti in determinate situazioni.

"Se tecniche simili potessero essere applicate ad

altri problemi strutturati come il ripiegamento

delle proteine, la riduzione del consumo di energia

o la ricerca di nuovi materiali rivoluzionari, i

risultati ottenuti potrebbero avere un impatto

positivo sulla società", dice il blog.

AlphaGo Zero ha anche ideato proprie strategie

non convenzionali. Il Go viene giocato usando

"pietre" colorate bianche e nere su una scacchiera

con una griglia di 19 x 19 caselle.

Ogni giocatore colloca le pietre con l'obiettivo di

circondare un avversario.

"Durante l'addestramento, AlphaGo Zero ha scoperto,

giocato e infine imparato a preferire una serie

di nuove varianti di joseki, sequenze locali di

mosse, precedentemente sconosciute", afferma il

portavoce di DeepMind Jon Fildes.

Le partite di Go iniziano tipicamente negli angoli

della griglia, poiché ciò permette a un giocatore

di guadagnare una migliore posizione complessiva

sulla scacchiera. "Così come la mossa 37 della

seconda partita contro Lee Sedol, questi momenti

di ispirazione algoritmica ci danno un'idea della

creatività di AlphaGo e del potenziale dell'IA",

aggiunge Fildes. An Young-gil, giocatore

professionista sudcoreano all'ottavo dan

(il nono dan è il più alto), ha definito la mossa 37

come una giocata "rara e intrigante" poco dopo

la partita del marzo 2016.

Il programma di IA che sbaraglia tutti a Go

SPL/AGFLo studio di DeepMind descrive

"un risultato tecnico veramente impressionante;

la loro capacità di ottenerlo e la loro capacità di

addestrare il sistema in 40 giorni con quattro

TPU sono notevoli", spiega Oren Etzioni, direttore

generale dell'Allen Institute for Artificial Intelligence (AI2),

che il co-fondatore di Microsoft Paul Allen ha istituito

nel 2014 per concentrarsi sui potenziali vantaggi

dell'IA. "Molti hanno usato l'apprendimento per

rinforzo in precedenza, ma gli aspetti tecnici del

lavoro sono innovativi".

Il successo di AlphaGo Zero è di buon auspicio

per la padronanza dei giochi da parte dell'IA, dice

Etzioni. Nonostante ciò, "penso che sarebbe un

errore credere di aver imparato qualcosa di generale

sul pensiero e sull'apprendimento per l'intelligenza

generale", aggiunge.

"Questo approccio non funzionerà su problemi non

così ben strutturati, come la comprensione del linguaggio

naturale o la robotica, dove lo spazio degli stati è più

complesso e non esiste una chiara funzione obiettivo".

L'addestramento senza supervisione è la chiave per

creare, in ultima analisi,

l'IA che può pensare autonomamente,

dice Etzioni, "ma occorrono più ricerche oltre i confini

dei giochi da scacchiera e funzioni oggettive predefinite"

prima che i computer possano davvero iniziare a pensare

al di fuori dagli schemi.

(L'originale di questo articolo è stato pubblicato su

"Scientific American" il 18 ottobre 2017 .

Traduzione ed editing a cura di Le Scienze.

Riproduzione autorizzata, tutti i diritti riservati)

 
 
 

Memorie di massa a base di polimeri

Post n°1981 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

17 ottobre 2017

Memorie di massa a base di polimeri

L'uso di lunghe catene polimeriche come mezzo

di archiviazione delle informazioni permetterebbe

di ridurre di cento volte le dimensioni dei supporti

di memoria rispetto agli attuali dischi rigidi,

ma finora non era stato trovato un modo efficiente

per poter leggere i dati archiviati con questa tecnica.

Un gruppo di ricerca ha ora mostrato come sia

possibile superare l'ostacolo(red)

computer sciencechimica

La strada per usare i polimeri come supporto di

memorizzazione dei dati è stata aperta da ricercatori

dell'Institut Charles Sadron a Strasburgo e

dell'Università di Aix-Marseille, in Francia, che

firmano un articolo pubblicato su "Nature Communications".

Rispetto ai dischi rigidi attuali la tecnologia a

polimeri, lunghe catene di molecole caratterizzate

dalla ripetizione di unità strutturali dette monomeri,

permetterebbe una riduzione delle dimensioni di circa

100 volte.

Memorie di massa a base di polimeri

(Cortesia Jean-François Lutz, Institut Charles Sadron, CNRS)

 Da diversi anni i ricercatori studiano la possibilità

di registrare informazioni usando come singole celle

di memoria i monomeri che compongono i polimeri.

Di recente è stato dimostrato che è possibile

costruire catene polimeriche in cui ogni singola

unità monomerica rappresenta un bit.

In questo modo diventa possibile scrivere una

quantità impressionante di dati in uno spazio

molto piccolo: basti pensare al DNA di una cellula,

che è appunto una molecola polimerica, in cui sono

archiviate tutte informazioni necessarie alla

creazione e al funzionamento di un organismo.

L'uso di questa tecnica di archiviazione delle

informazioni si è però finora scontrata con una

difficoltà: leggere i bit, ovvero le unità di base che

codificano le informazioni espresso sotto forma

di valori binari, 0 o 1, che in precedenza erano

stati scritti nel polimero. Ora Jean-François Lutz

e colleghi hanno dimostrato che, usando particolari

molecole polimeriche, è possibile leggere i dati con

una tecnica standard di spettrometria di massa.

I polimeri usati dai ricercatori sono costituiti da

due differenti tipi di gruppi fosfato, che rappresentano

rispettivamente i bit 0 e 1, intervallati ogni otto

unità monomeriche, corrispondenti a un byte,

da una molecola che instaura un legame fragile 

con il byte successivo.

La rottura di questo legame permette poi di procedere

alla lettura del byte con uno spettrometro di massa.

Nella loro prova di concetto, i ricercatori ha scritto

e letto in un polimero la parola "Sequence" in codice

ASCII, che assegna a ogni sequenza di otto bit

una lettera o un segno di punteggiatura.

Anche se la procedura manuale usata dai ricercatori

per compiere queste operazioni di scrittura e lettura

richiede qualche ora, sviluppando un apposito

programma per il controllo di questa attività

dovrebbe essere possibile ridurre il tempo necessario

a pochi millisecondi.

 
 
 

Se la cellula ragiona come un computer

Post n°1980 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

 

27 luglio 2017

 

Se la cellula ragiona come un computer

Credit: Wyss Institute at Harvard University

Usando RNA, è possibile inserire nelle cellule

batteriche porte logiche di dimensioni nanoscopiche,

il cui funzionamento è analogo a quello degli

elementi di base dei circuiti elettronici per computer(red)

biologiacomputer science

Produzione di farmaci, sostanze chimiche e

biocombustibili: sono questi i compiti delle

cellule microbiche ingegnerizzate in modo da

inglobare circuiti biologici che possono rilevare

input ambientali diversi, dalla presenza di tossine

ai segnali infiammatori.

Per questa manipolazione delle cellule in

laboratorio c'è ora una nuova frontiera:

l'impiego dell'RNA - una molecola biologica

fondamentale, coinvolta in numerosi meccanismi

che permettono di tradurre le informazioni

genetiche contenute nel DNA in proteine -

come un vero e proprio circuito logico.

Lo dimostra un articolo pubblicato su "Nature" 

da un gruppo di ricerca della Harvard University.

Gli scienziati hanno integrato nella cellula di Escheria coli,

uno dei batteri più comuni, un dispositivo a RNA

che può svolgere le operazioni logiche necessarie

per regolare in modo accurato l'espressione di

una proteina fluorescente quando incontra un

determinato profilo di stimoli interni alla cellula.

Se la cellula ragiona come un computer

Credit: Wyss Institute at Harvard University"

Abbiamo dimostrato che la molecola di RNA può

essere ingegnerizzata per produrre un dispositivo

per il 'ribo-calcolo', il calcolo basato sull'acido

ribonucleico", ha spiegato Peng Yin, coautore

dell'articolo.

"Questo risultato si trova all'interfaccia tra nano-

tecnologia e biologia sintetica, e ci permetterà di

progettare circuiti biologici sintetici più affidabili e

più sensibili alle influenze del loro ambiente,

rilevanti per specifici obiettivi".

Nel 2014, il gruppo di Yin aveva sviluppato un

dispositivo chiamato interruttore "a forcina".

Si trattava di una struttura a RNA, la cui forma

ricorda quella di una forcina per capelli, che può

controllare la produzione di una specifica proteina;

quando un'altra molecola di RNA - che può essere

parte del repertorio naturale di RNA della cellula e

ha la funzione di innesco - si lega all'interruttore

a forcina, quest'ultimo si apre.

Solo in quel momento i ribosomi, gli organelli

cellulari deputati alla traduzione delle informazioni

in proteine, hanno accesso all'RNA forcina e

producono la proteina desiderata.

Sulla base di questi risultati, gli autori hanno ideato

un metodo per sfruttare gli interruttori a forcina e le

molecole di RNA per codificare alcune operazioni

logiche principali - AND, OR e NOT - su cui si basa

l'elaborazione automatica delle informazioni dei

computer, integrandole in una molecola che è in

tutto e per tutto una porta logica a RNA.

"Usando in una cellula batterica due di queste

porte logiche a RNA tra loro indipendenti, che

esprimono differenti proteine fluorescenti, abbiamo

aperto le porte alla realizzazione di biosensori

basati su cellule intere", ha concluso Jongmin Kim,

coautore dello studio. "Inoltre crediamo che con

più sperimentazioni questi risultati si possano

facilmente applicare a microrganismi diversi tra

di loro".

 
 
 

computer scienceingegneriadisastri naturali

Post n°1979 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Internet

Comunicato stampa - Un team di ricercatori della

Sapienza di Roma e del Jet Propulsion Laboratory

della NASA ha sviluppato un nuovo algoritmo in

grado di individuare perturbazioni dell'atmosfera

terrestre generate da tsunami

atmosferacomputer scienceingegneriadisastri naturali

Roma, 18 maggio 2017 -

Dai laboratori della Sapienza al Jet Propulsion

Laboratory (JPL) di Pasadena (California):

l'algoritmo sviluppato da Giorgio Savastano,

giovane  dottorando ventisettenne di Geodesia

e Geomatica della Sapienza, in collaborazione

con Augusto Mazzoni e Mattia Crespi, ha ora

anche il riconoscimento della NASA, che lo

adotterà per individuare in tempo reale gli

sunami prima che raggiungano la costa.
 
Questo nuovo algoritmo, dal nome VARION

(Variometric Approach for Real-time Ionosphere

Observation), utilizza osservazioni provenienti

da GPS e altri sistemi di navigazione satellitare

al fine di individuare, in tempo reale, perturbazioni

nella ionosfera terrestre associate agli tsunami.

La ionosfera è lo strato dell'atmosfera che si

estende da circa 80 a 1000 km al di sopra della

superficie terrestre. Deve la sua ionizzazione

alla radiazione solare e cosmica ed è

principalmente conosciuta per il fenomeno

dell'aurora polare.
 
Uno tsunami che si muove in oceano sposta

l'aria sovrastante generando delle perturbazioni

nell'atmosfera note come onde di gravità.

Poiché l'atmosfera terrestre è sempre più rarefatta

procedendo verso l'alto, queste onde di gravità

si amplificano e quando raggiungono una quota

di circa 350 km la loro ampiezza è tale da causare

apprezzabili variazioni nella densità elettronica

della ionosfera.

Queste anomalie possono essere misurate

utilizzando un segnale GNSS, come quello GPS,

che attraversa la ionosfera.
 
L'algoritmo VARION è stato concepito sotto la

guida di Mattia Crespi, professore di Positioning

e Geomatica presso la Facoltà di Ingegneria civile

e industriale alla Sapienza. Il principale autore di

questo algoritmo è Giorgio Savastano, giovane

dottorando in Geodesia e Geomatica alla Sapienza

e collaboratore al JPL.

Questo lavoro, finanziato da Sapienza e JPL,

è stato recentemente pubblicato sulla rivista

Scientific Reports di Nature.
 
Nel 2015, Savastano è stato premiato dal

Consiglio Nazionale degli Ingegneri (CNI) e

dalla fondazione Italian Scientists and Scholars

in North America Foundation (ISSNAP) con una

borsa di studi per un periodo di 2 mesi al JPL,

dove ha lavorato con il gruppo che si occupa

di telerilevamento ionosferico supervisionato

da Attila Komjathy e Anthony Mannucci.
 
"VARION è un contributo innovativo per un

sistema integrato di allerta tsunami" afferma

Savastano. "Stiamo lavorando per implementare

questo algoritmo all'interno della rete di stazioni

GNSS del JPL che fornisce dati in tempo reale da

circa 230 stazioni sparse su tutto il mondo.

Queste stazioni sono in grado di immagazzinare

dati provenienti da diversi sistemi satellitari,

come GPS, Galileo, GLONASS and BeiDou."
 
Savastano conferma che VARION può essere

usato all'interno di un sistema per l'individuazione

di tsunami capace di utilizzare dati provenienti da

diverse fonti, come sismometri, boe e ricevitori GNSS.

Non appena un terremoto verrà rilevato, questo

sistema potrà cominciare a monitorare in tempo reale

il contenuto di elettroni nella ionosfera cercando

anomalie correlate con lo tsunami.

Queste misure potranno essere immagazzinate e

analizzate da un centro di controllo in grado di generare

mappe di rischio relative ad un determinato evento

sismico. L'utilizzo di dati provenienti da diverse

fonti potrà aumentare l'affidabilità del sistema.

 
 
 

I pregiudizi di genere e di razza dell'intelligenza artificiale

Post n°1978 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte:Internet

18 aprile 2017

Gli algoritmi che permettono a un sistema di

intelligenza artificiale di apprendere una lingua

da una serie di testi, trasmettono al sistema

anche i pregiudizi razziali o di genere che vi

possono essere celati. Dunque, la valutazione

per esempio di un curriculum da parte di un

sistema di IA non sarebbe affatto più imparziale

di quella fatta da un essere umano(red)

computer sciencesocietàQuando un sistema di

intelligenza artificiale (IA) "apprende" una lingua

da dei testi, finisce per assimilare anche i pregiudizi

razziali e di genere degli esseri umani.

A mostrarlo è stato un gruppo di ricercatori della

Princeton University che firmano 

un articolo pubblicato su "Science".

Il risultato è importante non solo perché offre uno

strumento per lo studio degli atteggiamenti e dei

comportamenti potenzialmente pregiudizievoli negli

esseri umani, ma anche perché evidenzia quanto

una lingua sia strettamente intrecciata con pregiudizi

storicamente sedimentati e con stereotipi culturali,

di cui un soggetto umano può anche non essere

consapevole.

I pregiudizi di genere e di razza dell'intelligenza artificiale

Science Photo Library/AGFIl metodo standard per

valutare l'esistenza di simili pregiudizi impliciti nelle

persone è costituito dal cosiddetto test di associa-

zione implicita. In questo test ai soggetti è chiesto

di indicare, premendo un tasto, se considerano affini

o diversi i concetti di una serie di coppie di parole via

via sottoposte. I tempi di risposta possono variare

notevolmente, indicando quanto una persona considera

i due concetti collegati tra loro.

Le persone, per esempio, sono solitamente propense

ad associare rapidamente "fiore" a "piacevole",

e "insetti" a "sgradevole".

Questa tecnica, però, non può evidentemente

essere applicata a un sistema di intelligenza

artificiale.

Aylin Caliskan e colleghi hanno così sviluppato

un corrispettivo adatto a valutare questo tipo di

pregiudizi nei sistemi di IA che acquisiscono il

linguaggio da testi umani.

Invece di misurare il tempo di ritardo, in questo

test viene eseguita una valutazione statistica

del numero di associazioni tra le parole acquisite

dal sistema.

L'applicazione di questo metodo - chiamato Word-

Embedding Association Test (WEAT) - ha mostrato

che, insieme al linguaggio, i sistemi di intelligenza

artificiale assorbono anche i pregiudizi impliciti.

Per esempio, gli studi sul comportamento umano

effettuati negli Stati Uniti mostrano che uno stesso

identico curriculum apre le porte a un colloquio di

lavoro molto più facilmente se  è il nome del candidato

è di origine europea e non afroamericana.

E lo stesso accadrebbe se la scelta dovesse essere

fatta da un sistema di IA, poiché questo sistema

nel corso del suo apprendimento della lingua ha

registrato una più frequente associazione dei nomi

americani di origine europea con termini "positivi",

per esempio "regalo" o "felice". E analogamente, i

l sistema di IA associa le parole legate al sesso

femminile (come "donna" e "ragazza") a parole che

hanno a che fare con le arti, e molto meno con la matematica.

 
 
 

Il primo microprocessore bidimensionale

Post n°1977 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

13 aprile 2017

Il primo microprocessore bidimensionale

Il primo microprocessore bidimensionale

Cortesia Kansas State University

Per la prima volta è stato realizzato un

microprocessore basato sui materiali bidimensionali.

Una dimostrazione del fatto che è possibile creare

circuiti complessi anche con questo tipo di strutture,

grazie a cui superare la tecnologia sl silicio(red)

materialicomputer sciencenanotecnologie

È costituito da 115 transistor e occupa una

superficie di 0,6 millimetri quadrati il primo

microprocessore bidimensionale, realizzato

da ricercatori del Politecnico di Vienna.

In particolare, gli scienziati hanno usato

una pellicola di disolfuro di molibdeno dello

spessore di soli tre atomi.

Anche se il nuovo microprocessore ha la capacità

di eseguire solo programmi semplici, rappresenta

un progresso tecnologico significativo per il

passaggio dall'elettronica basata sul silicio

alla nanoelettronica basata sui materiali

bidimensionali. La ricerca è descritta in 

un articolo pubblicato su "Nature Communications".

La tecnologia al silicio finora usata nella

produzione dei microprocessori si sta lentamente

ma inesorabilmente avvicinando ai suoi limiti

fisici di miniaturizzazione, uno dei fattori chiave

del miglioramento delle prestazioni.

Per poter continuare la corsa al miglioramento

delle prestazioni dei computer e delle apparecchiature

elettroniche in generale, fisici e ingegneri stanno

quindi testando la possibilità di ricorrere ad altri

materiali, e in particolare ai cosiddetti materiali

bidimensionali, il cui spessore varia da uno a

pochissimi strati atomici.

Il primo microprocessore bidimensionale

Illustrazione di uno strato di disolfuro di molibdeno

fra due strati di grafene (azzurro).(Cortesia Kansas State University)

La pellicola triatomica di disolfuro di molibdeno

sperimentata al Politecnico di Vienna non solo

appartiene a questa classe di materiali, ma è

anche un semiconduttore, una proprietà essenziale

per il funzionamento dei transistor che il grafene -

  il capostipite dei materiali bidimensionali, scoperto

nel 2004 - non ha.


Proprio la natura sostanzialmente bidimensionale

di questi materiali permette di sfuggire a una serie

di limiti intrinseci della tradizionale tecnologia al

silicio, ma a sua volta complica per altri versi la

progettazione di un processore che per le proprie

connessioni interne non può sfruttare la terza

dimensione.

 Per questo finora non si era riusciti a creare

strutture che comprendessero più di una

manciata di transistor.

Per superare questa difficoltà, spiega Thomas

Mueller, che ha diretto la ricerca, "siamo stati

molto attenti alle dimensioni dei singoli transistor.

I rapporti esatti tra le geometrie dei transistor

nei componenti di base del circuito sono un fattore

critico per riuscire a creare unità più complesse a

cascata."

Anche se la tecnologia adottata dai ricercatori

avrà bisogno di ulteriori perfezionamenti per

permettere la creazione di circuiti con migliaia o

addirittura milioni di transistor, la dimostrazione

di principio della loro fattibilità è ormai acquisita.

 
 
 

L'hard disk diventa atomico.

Post n°1976 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Internet

13 marzo 2017

Un gruppo di scienziati ha ottenuto un magnete

stabile costituito da un singolo atomo.

L'obiettivo finale, ancora lontano, è realizzare

dischi rigidi a scala atomica, in grado di aumentare

di migliaia di volte la densità di immagazzinamento

dei dati rispetto alle prestazioni degli hard disk

attualidi Elisabeth Gibney/Nature

computer sciencefisica

Spaccate un magnete in due: avrete due magneti più piccoli.

Tagliateli ancora in due, e ne otterrete quattro.

Ma più i magneti diventano piccoli, più sono instabili:

i loro campi magnetici tendono a invertire le polarità

da un momento all'altro. Ora, però, i fisici sono riusciti

a creare un magnete stabile da un singolo atomo.

Il gruppo, che ha pubblicato il 

proprio lavoro su Nature l'8 marzo scorso,

ha usato i suoi magneti a singolo atomo per realizzare

un hard disk su scala atomica.

Il dispositivo riscrivibile, formato da due di questi magneti,

è in grado di memorizzare solo due bit di dati, ma se

portato a grande scala potrebbe aumentare di 1000

volte la densità di immagazzinamento dei dati di un

hard disk, spiega Fabian Natterer, fisico dell'École

polytechnique fédérale de Lausanne ( EPFL), in

Svizzera, autore dell'articolo.

"È una pietra miliare", commenta Sander Otte, fisico

della Delft University of Technology, nei Paesi Bassi.

"Finalmente, è stata dimostrata in modo indiscutibile

la stabilità magnetica in un singolo atomo".

L'hard disk diventa atomico

Credit: Tessi Alfredo/AGFAll'interno di un normale

hard disk c'è un disco diviso in aree magnetizzate,

ciascuna simile a una piccola barretta magnetica;

i campi delle aree magnetizzate possono puntare

verso l'alto o verso il basso.

Ciascuna direzione rappresenta un 1 o uno 0,

un'unità di dati nota come bit.

Più sono piccole le aree magnetizzate, più densa-

mente possono essere memorizzati i dati.

Ma le regioni magnetizzate devono essere stabili,

in modo che gli 1 e gli 0 all'interno del disco rigido

non cambino accidentalmente.

Gli attuali bit commerciali sono costituiti da circa

un milione di atomi.

Ma in esperimenti i fisici hanno ridotto radicalmente

il numero di atomi necessari per memorizzare un bit,

passando dai 12 atomi del 2012 a un unico atomo ora.

Natterer e il suo gruppo hanno usato atomi di olmio,

un metallo delle terre rare, posto su un foglio di ossido

di magnesio e mantenuto a una temperatura inferiore

a cinque kelvin.

L'olmio è particolarmente adatto allo stoccaggio a

singolo atomo perché ha molti elettroni spaiati che

creano un forte campo magnetico, e questi elettroni

si trovano in un'orbita vicina al centro dell'atomo dove

sono schermati dall'ambiente.

Questo conferisce all'olmio un campo intenso e stabile,

dice Natterer.

Ma la schermatura ha un inconveniente: rende l'olmio

notoriamente un elemento con cui è difficile interagire.

E finora molti fisici dubitavano che fosse possibile

determinare in modo affidabile lo stato dell'atomo.

Bit di dati
Per scrivere i dati su un singolo atomo di olmio,

il gruppo ha usato un impulso di corrente elettrica

da una punta magnetizzata di un microscopio a

effetto tunnel, che può invertire l'orientamento

del campo dell'atomo tra uno 0 e un 1.

Nei test, i magneti si sono dimostrati stabili:

ciascuno ha conservato i propri dati per diverse

ore e il gruppo non ha mai osservato una

inversione involontaria.

I ricercatori hanno usato lo stesso microscopio

per leggere il bit, con diversi flussi di corrente

per rilevare lo stato magnetico dell'atomo.

Per dimostrare ulteriormente che la punta

avrebbe potuto leggere in modo affidabile il bit,

il gruppo, che includeva ricercatori dell'IBM, ha

ideato un secondo metodo di lettura indiretto.

Ha usato un atomo di ferro vicino come un

sensore magnetico, regolandolo in modo

che le sue proprietà elettroniche dipendessero

dall'orientamento dei due magneti atomici di

olmio nel sistema a 2 bit.

Il metodo permette al gruppo di leggere anche

più bit contemporaneamente, dice Otte, rendendolo

più pratico e meno invasivo rispetto alla tecnica

microscopica.

L'hard disk diventa atomico

CC0 Public DomainUsare singoli atomi come bit

magnetici aumenterebbe radicalmente la densità

di memorizzazione dei dati;

Natterer riferisce che i suoi colleghi dell'EPFL stanno

lavorando a metodi per realizzare grandi schiere di

magneti a singolo atomo.

Ma il sistema a 2 bit è ancora lontano dalle applica-

zioni pratiche e molto in ritardo rispetto a un altro

tipo di archiviazione a singolo atomo, che codifica

i dati nelle posizioni degli atomi, invece che nella loro

magnetizzazione, e ha già costruito un dispositivo di

archiviazione dati riscrivibile da 1-kilobyte (8192-bit).

Un vantaggio del sistema magnetico, tuttavia, è che

potrebbe essere compatibile con la spintronica, dice Otte.

Questa tecnologia emergente usa stati magnetici

non solo per memorizzare i dati, ma anche per

spostare informazioni in un computer al posto

della corrente elettrica, e renderebbe i sistemi

molto più efficienti dal punto di vista energetico.

Nel breve termine, i fisici sono più entusiasti di studiare

i magneti a singolo atomo.

Natterer, per esempio, prevede di osservare tre

mini-magneti orientati in modo che i loro campi siano

in concorrenza l'uno con l'altro, in modo da invertirsi

continuamente.

"Ora possiamo giocare con questi magneti a singolo

atomo, usandoli come mattoncini Lego per costruire

strutture magnetiche da zero", conclude.

(L'originale di questo articolo è stato pubblicato

su Nature l'8 marzo 2017. Traduzione ed editing

a cura di Le Scienze. Riproduzione autorizzata,

tutti i diritti riservati.)

 
 
 

CNR - Car sharing: ecco le città più condivisibili

Post n°1975 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Le Scienze

06 marzo 2017

Comunicato stampa -

Un team di ricercatori di Istituto di informatica e

telematica del Cnr, Mit, Cornell University e Uber

ha utilizzato i big data per predirne l'effetto in

30 città: lo studio potrebbe fornire indicazioni

per trasformare il futuro del trasporto a livello globale.

Milano ha un potenziale di condivisione dei viaggi

cinque volte maggiore di Roma. A livello globale,

ai primi posti New York e Vienna. 

La ricerca pubblicata su Nature Scientific Reports

trasporticomputer science 

Roma, 6 marzo 2017 - Un gruppo di ricercatori

dell'Istituto di informatica e telematica del Consiglio

nazionale delle ricerche (Iit-Cnr), del Mit, della

Cornell University e della società Uber ha utilizzato

una quantità senza precedenti di dati sulla mobilità

per predire le potenzialità del ride-sharing in 30 città

globali. Attraverso l'analisi di oltre 200 milioni di viaggi

di taxi effettuati a New York, Singapore, San Francisco

e Vienna, i ricercatori hanno scoperto le leggi della

mobilità condivisa che possono essere applicate a

qualsiasi città. La ricerca, pubblicata nel numero di

marzo 2017 della rivista Nature Scientific Reports,

potrebbe fornire indicazioni per trasformare il futuro

del trasporto a livello globale.

"La mobilità condivisa si sta diffondendo sempre più:

UberPool, che è il servizio di Uber con conducente

non professionista per la condivisione dei viaggi, è

attivo in oltre 30 città, inclusa San Francisco dove

è scelto da oltre il 50% dei suoi clienti.

Grazie alla mole di dati generati da questo e simili

sistemi, è possibile quantificare il potenziale della

mobilità condivisa in un modo che era finora

impossibile", spiega Paolo Santi, ricercatore

presso l'Iit-Cnr e il Mit Senseable City Lab.

Questa disponibilità di dati ha consentito ai

ricercatori del Mit e del Cnr la scoperta delle

leggi del ride-sharing urbano.

"Per quantificare il rapporto tra domanda di

mobilità urbana e il numero di corse condivisibili,

è stata utilizzata una metodologia basata sulla

scienza delle reti - prosegue Santi - il nostro

gruppo di ricerca ha inoltre sviluppato un modello

che caratterizza la 'legge del ride-sharing':

con tre semplici parametri - l'area urbana, la

densità delle richieste di viaggio e la velocità

media del traffico - è stato possibile ottenere 

una stima molto accurata del numero di viaggi

che può essere condiviso in una data città".

Utilizzando questa legge, il team di ricerca è

stato in grado di classificare le città in base al l

oro potenziale di condivisione:

"Abbiamo scoperto, per esempio, che Milano

ha un potenziale di condivisione dei viaggi di

circa il 50%, cinque volte maggiore di Roma:

questa differenza è in gran parte dovuta alla

diversa velocità del traffico cittadino.

Di tutte le città studiate, New York è risultata la

città più 'condivisibile' con il 62%, Berlino e Londra

fra le meno 'condivisibili', con il 10-15%", precisa

il ricercatore dell'Iit-Cnr. "I risultati della ricerca

mettono anche in luce certe somiglianze tra città

storicamente e strutturalmente diverse come

Vienna e New York.

Questo risultato è sorprendente e la spiegazione

possibile per tale somiglianza, nonostante le

differenze strutturali, è che ciò che influenza la

condivisibilità dei viaggi, è il modo in cui sono

organizzate le nostre vite, più che la disposizione

della città".

Carlo Ratti, direttore del Senseable City Lab del Mit,

che ha guidato la ricerca, conclude:

"Con i veicoli a guida autonoma che stanno per

arrivare sulle nostre strade, la condivisione delle

auto e dei viaggi potrebbe diventare sempre più

diffusa, creando nuovi sistemi di mobilità che

rappresenteranno un ibrido fra trasporto pubblico

e privato".

 
 
 

Darknet, il lato oscuro della Rete,

Post n°1974 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Internet

01 marzo 2017

Darknet, il lato oscuro della Rete, è anche il meno attaccabile

Un'analisi della parte "oscura" del Web -

spesso usata anche per scopi illeciti - ha

mostrato che è quattro volte più resistente

agli attacchi informatici e a eventuali danni ai suoi nodi.

Questa resistenza è dovuta alla struttura topologica

di Darknet e ai suoi protocolli di comunicazione, che

privilegiano la sicurezza rispetto alla velocità di

comunicazione propria di Internet(red)

internetcomputer science

La parte "oscura" del Web

- cui si può accedere solo attraverso protocolli che

garantiscono privacy e anonimato - è molto più

resistente alle perturbazioni del resto di Internet,

sia che si tratti di danni ad alcuni dei suoi nodi o di

attacchi di hacker.

E' la conclusione a cui sono giunti Manlio De

Domenico e Alex Arenas, due ricercatori dell'Università

Rovira i Virgili a Tarragona, in Spagna, che firmano 

un articolo su "Physical Review E".

Per navigare su Internet - che è il sistema di

collegamento fra reti informatiche, anche molto

diverse tra loro, reso possibile da un insieme di

protocolli di rete comune chiamato TCP/IP - in

genere si usano i motori di ricerca che raccolgono

i link relativi alle risorse accessibili.

Darknet, il lato oscuro della Rete, è anche il meno attaccabile

Struttura dei nodi di Intenet. (Cortesia Barrett Lyon

/The Opte Project)

Tuttavia, alcune delle risorse presenti in rete sono

accessibili, in parte per problemi legati al software

di ricerca, e spesso perché chi ha messo in rete

quella risorsa sfrutta dei comandi che la rendono

trasparente ai motori di ricerca.

Per accedere a quei contenuti - che formano il cosiddetto

Deep Web - bisogna quindi  conoscere già l'indirizzo

della pagina o del sito cercato.

Ma esiste una parte del Web ancora più sommersa e

oscura: Darknet, che non solo è invisibile ai motori di

ricerca, ma è raggiungibile solo usando protocolli

che garantiscono privacy e anonimato.

Basandosi sui dati provenienti dall'Internet Research

Lab dell'Università della California a Los Angeles,

De Domenico e Arenas hanno caratterizzata la topologia

di Darknet - ossia la struttura dei collegamenti fra i suoi siti

- e sviluppato un modello  che descrive il modo in cui sono

trasmesse le informazioni, che sfrutta una tecnica

per nascondere i messaggi attraverso una serie di

procedimenti crittografici, sovrapposti l'uno all'altro

(e per questo chiamato onion routing).

Definito il modello, i ricercatori hanno simulato la

risposta di Darknet a tre tipi di disturbi: attacchi che

prendono di mira specifici nodi di rete, guasti casuali

di alcuni nodi, e guasti/attacchi che si propagano a

cascata attraverso la rete.

Darknet, il lato oscuro della Rete, è anche il meno attaccabile

Cortesia Rastin PriesI risultati hanno mostrato che

per causare una forte perturbazione alle comunicazioni

di Darknet, gli attacchi/danni devono colpire il quadruplo

di nodi necessari a bloccare Internet, e che i guasti a

cascata sono più facilmente rimediabili.

La differenza principale è che Darknet è costituita da

una rete molto decentrata di nodi, in cui non ci sono

punti di connessione generali per ogni città, regione

o paese: è sostanzialmente peer-to-peer

Internet invece ha hub altamente interconnessi,

ciascuno dei quali, una volta fatto saltare da un

attacco, rischia di destabilizzare l'intero sistema.

Questa differenza risale alla rete da cui ha avuto

origine Internet, Arpanet (Advanced Research Projects

Agency Network), il sistema di comunicazione sicura

progettato alla fine degli anni sessanta dal Dipartimento

della difesa degli Stati Uniti (e per questo poi chiamato Darpanet).

Nel suo sviluppo, Darknet ha continuato a

privilegiare la sicurezza delle informazioni,

mentre Internet ha puntato a massimizzare

la velocità e l'efficienza, pagandola però con

una minore resilienza.

 
 
 

computer sciencesocietàinternet

Post n°1973 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Internet

computer sciencesocietàinternet

Secondo un sondaggio realizzato nel 2016

dal Pew Research Center, il 62 per cento

degli americani legge le notizie sui social media.

Questa statistica aiuta a spiegare l'onnipresenza

delle notizie fasulle: quando le informazioni

viaggiano attraverso i social network, i normali

filtri editoriali non hanno alcuna possibilità di

separare il tweet di qualità dalla bufala.

Lo sviluppo di strumenti che aiutino a fermare

la diffusione di menzogne e false voci richiederà

la collaborazione di informatici, linguisti, psicologi

e sociologi. Un nuovo studio, che sarà presentato

questo mese in una conferenza dell'Association

for Computing Machinery, ha analizzato milioni

di tweets, rivelando le parole e le frasi che sono

considerate più credibili.

Un algoritmo per controllare la credibilità dei tweet

CARL COURT/AFP/Getty ImagesTanushree Mitra,

esperta di informatica del Georgia Institute of

Technology e prima autrice dello studio, dice che

si è interessata al problema quando nel 2011 fu

ucciso Osama bin Laden e circolarono numerosi

messaggi su se e come fosse veramente morto.

Molti sentirono parlare per la prima volta

dell'uccisione su Twitter.

"Sui social media questo tipo di notizie dell'ultim'ora

e le relative speculazioni circolano molto prima che

la notizia raggiunga i mezzi di informazione

tradizionali", dice Mitra.

Lei e i suoi collaboratori al Georgia Tech hanno

voluto sviluppare dei sistemi automatizzati per

valutare se gli eventi sono realmente accaduti,

basandosi esclusivamente sul modo in cui le

persone ne stavano parlando.

Questi strumenti possono aiutare a rilevare voci

false prima che si diffondano troppo.

I ricercatori hanno costruito un database di 1377

eventi avvenuti tra ottobre 2014 e febbraio 2015

e dei tweet associati a essi.

Per assegnare un punteggio di "credibilità" a ogni

evento, i partecipanti allo studio leggevano alcuni

tweet e, in base a ciò che sapevano o a una

ricerca on- line, ne valutavano la "correttezza"

dell'evento riferito.

A seconda della percentuale di persone che

classificavano gli eventi come "certamente corretti",

questi venivano stati collocati in quattro categorie:

credibilità massima, credibilità elevata, credibilità

moderata e scarsa credibilità.

Gli eventi scarsamente credibili includevano un

giocatore di football morto dopo un placcaggio

particolamente duro, e la polizia che spruzzava

pepe su una folla. (Le valutazioni di accuratezza

non erano perfette: la polizia aveva effettivamento

usato il pepe contro la folla)

I ricercatori hanno poi analizzato statisticamente

i 66 milioni di tweet relativi agli eventi, cercando

correlazioni tra i punteggi di credibilità e alcune

caratteristiche, come le parole che esprimono

incertezza o un'emozione.

Nello studio, non ancora pubblicato, elencano

diversi indizi utili: gli eventi "credibili" avevano

più probabilità di essere descritti su Twitter con

termini come appeareddepending guessed 

(sembra, stando a, si suppone), mentre gli eventi

"incredibili" erano accompagnati da altri termini,

comeindicatescertain level e  dubious (indica, in

certa misura, dubbio).

Alcuni dei migliori "barometri" erano vocaboli

che esprimevano un giudizio: vibrantunique 

intricate (vivace, unico e complesso) lasciavano

prevedere un'alta credibilità, mentre pryawfulness

 e lacking  (indagare, orrore e privo) suggerivano

una scarsa credibilità.

(Stranamente, darn(maledizione) era associato

a un'elevata credibilità, damn (dannazione) a una bassa.)

E anche se termini amplificativi come without doubt 

(senza dubbio) e undeniable (innegabile)  facevano

prevedere una scarsa credibilità nei tweet originali,

ne prevedevano una alta nei retweet.

Al di là di specifiche parole, lunghe citazioni nei retweet

suggeriscono una scarsa credibilità, forse perché chi

ripubblica i tweet di un altro è riluttante a prendersi

la responsabilità dell'affermazione. Anche un elevato

numero di retweet è stato associato a una scarsa credibilità.

(Queste sono tutte correlazioni: i ricercatori non sanno,

per esempio, se il numero di retweet ha influenzato la

valutazione dei partecipanti allo studio, o se retweet

e valutazioni dipendevano, in modo indipendente tra

loro, dalle caratteristiche del evento supposto.)

I ricercatori hanno anche testato la capacità del loro

modello di prevedere la credibilità di un evento,

combinando indicatori come quelli citati.

Un algoritmo per controllare la credibilità dei tweetmkhmarketing Flickr (CC BY 2.0)Se l'algoritmo

procedesse a caso, darebbe la risposta giusta i

l 25 per cento delle volte; se indovinasse sempre

i casi di "credibilità elevata"- la categoria con il

maggior numero di eventi - sarebbe nel giusto il

32 per cento delle volte.

Ma l'algoritmo ha funzionato molto meglio di così,

raggiungendo una correttezza del 43 per cento.

Se poi si assegna all'algoritmo mezzo punto

quando un'attribuzione è solo leggermente

errata (per esempio, attribuendo "massima

credibilità" a un evento con "credibilità elevata"),

la precisione dell'algoritmo arriva al 65 per cento.

I ricercatori sperano di migliorare le prestazioni,

combinando spunti linguistici con elementi come

l'autore del tweet o i link citati.

In un lavoro preliminare,

Mitra ha dimostrato che le storie provenienti da

una sola persona tendono ad avere scarsa credibilità.

I ricercatori considerano il loro modello uno strumento

come una sorta di "occhio preliminare", che attiri

l'attenzione di giornalisti e fact checkers su resconti

che potrebbero interessarli, per occuparsene o per smentirli.

Secondo Robert Mason - un ricercatore dell'Università

di Washington che ha studiato i messaggi su Twitter

a proposito dell'attentato alla maratona di Boston,

ma non ha partecipato allo studio di Mitra -

uno strumento del genere potrebbe anche aiutare

i primi soccorritori a decidere di quali informazioni

fidarsi durante un emergenza.

Un algoritmo per controllare la credibilità dei tweetWestend61/Getty ImagesUn'altra possibilità,

dice Mason, è inserire dentro  Twitter o Facebook

sistemi di alllerta che individuino quando una

persona sta per condividere storie potenzialmente false,

chiedendo se è sicura di volerlo fare, in modo tale

da "rallentare la facilità con cui diffondiamo le informazioni".

Tuttavia, fermare la diffusione di notizie false sarà difficile

anche ricorrendo all'intelligenza artificale.

Mason ricorda l'adagio secondo cui una bugia può viaggiare

per mezzo mondo prima che la verità si metta le scarpe.

Spesso la disinformazione è più avvincente della verità.

E i giornalisti sono spinti a riferire rapidamente le notizie.

In ogni caso, spesso la gente ignora l'autorevolezza

della fonte. "In un'epoca di social media e di

informazioni in rapidissimo movimento," dice Mason,

"che cos'è una fonte autorevole? Non abbiamo più un

Walter Cronkite o un Edward R. Murrow che ci dicano

'Ecco come stanno le cose'. Abbiamo una molteplicità

di voci che dicono che le cose stanno così. E quindi

tocca a noi scegliere".

L'originale di questo articolo è stato pubblicato su

Scientific American il 3 febbraio  2017. Traduzione

ed editing a cura di Le Scienze.

Riproduzione autorizzata, tutti i diritti riservati.

 
 
 

Un modello per la propagazione dei guasti nelle reti elettriche

Post n°1972 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Le Scienze

01 febbraio 2017

La propagazione a cascata dei guasti più gravi

nelle reti di distribuzione di energia elettrica può

essere riprodotta grazie a un modello al computer

e a un algoritmo di previsione, che potrebbe essere

molto utile nelle situazioni critiche reali(red)

computer sciencetecnologia

Nel progettare grandi sistemi a rete, come la

distribuzione dell'elettricità o i collegamenti dei voli

aerei, gli ingegneri adottano misure che ne permettono

il funzionamento anche nel caso in cui un piccolo

numero di elementi sperimenti un guasto.

Eppure esistono eventi molto più rari in cui un

guasto si può ripercuotere a cascata su gran

parte della rete, compromettendone il corretto

funzionamento.

Finora, la dinamica di questi malfunzionamenti

maggiori è sfuggita a ogni comprensione e soprat-

tutto a ogni previsione.

Ma presto le cose potrebbero cambiare, grazie

a uno studio pubblicato su "Physical Review Letters

" da Takashi Nishikawa e colleghi della Northwestern

University a Evanston, in Illinois.

Gli autori hanno elaborato un modello al computer

che riproduce egregiamente la propagazione dei guasti

a cascata e, grazie a un algoritmo, è in grado anche di

fare previsioni a riguardo, risultando potenzialmente

utile nelle situazioni reali.

Il gruppo ha analizzato i dati relativi a tre anni di

funzionamento e guasti della rete elettrica del Texas.

Il punto cruciale dello studio è la dimostrazione che

le linee di trasmissione dell'elettricità non si guastano

casualmente, in modo indipendente le une dalle

altre, perché nelle cascate di guasti di maggiori

dimensioni ci sono importanti sottoinsiemi della

rete che si rompono insieme.

Si tratta di coppie di componenti definiti "co-suscettibili"

che spesso non sono neppure in contatto.

Semplicemente, un guasto di una linea elettrica

fa sì che la corrente venga reindirizzata, finendo

per sovraccaricare una linea elettrica situata lontano.

Secondo gli autori, l'identificazione dei gruppi di

elementi co-suscettibili è una strada fondamentale

per la comprensione dei meccanismi con cui avvengono

i guasti a cascata.

Tuttavia, identificare questi gruppi in grandi insiemi

di dati raccolti nei guasti verificatisi in passato

richiede una capacità di calcolo non indifferente.

Nishikawa e colleghi hanno calcolato la distribuzione

delle dimensioni delle cascate di guasti, per poi

selezionarne 5000 di queste cascate iniziate dal

guasto di pochi elementi.

Analizzando i dati hanno identificato i cluster

co-suscettibili, di cui molti coinvolgevano più di sei

singole linee elettriche.

Una volta identificati questi cluster, gli autori hanno

riprodotto le cascate di guasti non nel network fisico

originale, ma in un network astratto più semplice,

costituito da gruppi co-suscettibili, grazie a cui hanno

trovato l'algoritmo in grado di riprodurne la dinamica.

Una volta ritornati sulla base di dati reale e completa,

l'algoritmo ha dimostrato di poter riprodurre la

distribuzione completa delle cascate: l'accordo tra

simulazione e realtà dimostra che la dinamica delle

cascate dipende quasi interamente dall'evoluzione

di un semplice scheletro di gruppi co-suscettibili.

Secondo Adilson Motter, che ha partecipato alla

ricerca, questo nuovo metodo potrebbe anche

essere usato per stimare le probabilità che

avvengano le cascate peggiori.

"Per esempio, ci possiamo chiedere:

'Qual è la probabilità che si verifichi una cascata

di dimensioni doppie rispetto a quelle della più

grande cascata mai osservata?'", ha spiegato Motter.

"Il nostro approccio permette di fare previsioni oltre

quanto è concesso dall'analisi dei dati storici, e

naturalmente le cascate di maggiori dimensioni

sono quelle che interessano di più."

 
 
 

Altri punti dell'intelligenza artificiale

Post n°1971 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Le Scienze

Realizzato un qubit, l'unità d'informazione

su cui saranno basati i futuri computer quantistici,

con lo spin di un atomo di silicio immerso in un

campo elettromagnetico che oscilla costantemente

nelle frequenze delle microonde.

Il dispositivo, denominato qubit "vestito", ha una

stabilità dieci volte superiore a quella dei qubit

ordinari realizzati finora(red)

computer sciencefisica

Secondo la legge di Moore, formulata negli anni

sessanta dall'informatico statunitense Gordon

Moore, uno dei fondatori di Intel, il numero di

transistor su un microchip sarebbe dovuto

raddoppiare ogni 18 mesi.

Formulata su base empirica, questa legge

ha funzionato egregiamente per alcuni decenni

in cui si è assistito a uno sviluppo fenomenale

dei computer.

Negli ultimi anni, tuttavia, questo progresso ha

segnato il passo.

Semplicemente perché la crescente miniaturizzazione

dei componenti elettronici, che permette di aumentare

appunto il numero di microchip a parità di superficie,

è ormai arrivata in prossimità di un limite fisico.

È per questo che, secondo molti esperti del settore,

il futuro del calcolo automatico sarà del computer

quantistico.

In esso il supporto di codifica del bit, l'unità

d'informazione binaria dotata di due soli valori, o

stati, indicati come 0 e 1, non sarà più un circuito

elettrico aperto o chiuso, per esempio un transistor,

ma gli stati quantistici di un sistema microscopico:

fotoni, atomi o molecole, che costituiscono il supporto

di un bit quantistico, o qubit. In questi casi il vantaggio

è che ciascuno di questi oggetti del mondo

microscopico può esistere in una sovrapposizione

di stati quantistici diversi, espandendo

enormemente la potenza di calcolo.

Chiaramente, maneggiare uno di questi oggetti

microscopici a fini pratici è un compito più facile

a dirsi che a farsi. In effetti uno degli obiettivi

di molti laboratori in tanti paesi del mondo è

realizzare qubit sempre più stabili e affidabili.

L'ultimo risultato in ordine di tempo è un nuovo

tipo di qubit realizzato da ricercatori dell'Università

del New South Wales (UNSW), in Australia,

e descritto in un articolo su "Nature Nanotechnology".

Questo tipo di qubit è in grado di rimanere in una

sovrapposizione stabile di stati per un tempo dieci

volte superiore rispetto ad altri qubit simili realizzati finora.

Ciò consente di espandere enormemente il tempo

durante cui potrebbero essere effettuati i calcoli in

un futuro computer quantistico.

Si tratta in realtà di un "qubit vestito" (dressed qubit),

un termine con cui si indica un atomo, in questo caso

di silicio, accoppiato a con un campo magnetico.

"Abbiamo dimostrato un nuovo modo per codificare

l'informazione, immergendo un atomo in un campo

elettromagnetico molto intenso, oscillante con frequenze

nelle microonde, e abbiamo definito il qubit come

l'orientazione dello spin dell'atomo rispetto al campo",

ha spiegato Andrea Morello, che ha coordinato lo studio.

Il risultato è stato sorprendente.

Poiché il campo elettromagnetico oscilla costantemente

a una frequenza molto elevata, ogni rumore o disturbo

elettromagnetico esterno di frequenza diversa ha

un effetto nullo.

"In un certo senso, il qubit 'vestito' è immune

al rumore: l'informazione 

 
 
 

Reti neurali e memoria dinamica per un computer

Post n°1970 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Le Scienze
13 ottobre 2016

Un nuovo computer che combina le reti neurali

e un'architettura della memoria tipica dei

computer convenzionali è in grado di imparare

da esempi o per tentativi ed errori, e anche

eseguire complesse elaborazioni, due capacità

che finora sembravano alternative(red)

computer science

Un computer che coniuga la capacità di apprendimento

 delle reti neurali e l'efficienza e la flessibilità

di calcolo dei normali computer digitali è stato

realizzato per la prima volta da ricercatori di

Google DeepMind - l'azienda informatica

britannica DeepMind acquistata da Google

nel 2014 - che ne descrivono le caratteristiche

in un articolo pubblicato su "Nature".

I computer convenzionali sono in grado di

elaborare forme complesse di dati, ma richiedono

una puntuale programmazione manuale per

eseguire queste attività.

Le reti neurali artificiali sono state sviluppate

per mimare la capacità di apprendimento del

cervello grazie all'identificazione, a partire da

una serie di esempi, di specifici modelli nei dati:

invece di essere programmata una rete neurale

è addestrata, per esempio a riconoscere oggetti o facce.

Finora lo sviluppo di queste due architetture

computazionali ha viaggiato su due strade ben

distinte, a causa di una radicale differenza

nell'organizzazione della loro memoria.

Reti neurali e memoria dinamica per un computer ibrido

L'efficienza del nuovo computer è stata testata

controllandone la capacità di orientarsi nella

metropolitana di Londra.

(Macdiarmid/Getty Images)

I computer convenzionali separano il calcolo e la memoria.

I calcoli sono eseguiti da un processore, che può

sfruttare una memoria indirizzabile per portare i

diversi valori da usare nell'area di lavoro e poi

ricollocarli nello spazio di memoria.

Questa soluzione offre due vantaggi: da un lato

la memoria può essere estesa a piacimento per

inserire nuove informazioni, e dall'altro i suoi c

ontenuti possono essere trattati come variabili.

Per eseguire una stessa elaborazione su un dato

o su un altro diverso, è sufficiente cambiare

l'indirizzo di memoria del dato da trattare.

In una rete neurale artificiale, invece, le risorse

computazionali e quelle di memoria sono mescolate

l'una all'altra dall'attribuzione del "peso" che la rete

dà a ciascun dato mentre tenta di identificare

schemi nell'insieme di informazioni ricevute.

Questo rende le reti neurali adatte a simulare

le capacità di apprendimento umane, ma non

permette un'archiviazione dinamica, indipendente

dallo stato della rete, di nuove informazioni e,

dunque di eseguire algoritmi che agiscono allo

stesso modo indipendentemente dai valori

delle variabili usate.

Ora Alex Graves, e colleghi sono riusciti a

sviluppare quello che hanno chiamato computer

neurale differenziabile (DNC), che coniuga la

capacità di imparare da esempi o per tentativi

ed errori, e una struttura di memoria esterna

simile a quella di un computer convenzionale.

I ricercatori hanno mostrato che DNC "comprende"

bene complesse strutture grafiche come gli alberi

genealogici o filogenetici, o le reti di trasporto,

riuscendo, per esempio, a pianificare il percorso

migliore sulla metropolitana di Londra senza avere

preventivamente una conoscenza di quella rete di

trasporto.

 
 
 

Sull'intelligenza artificiale...

Post n°1969 pubblicato il 28 Febbraio 2019 da blogtecaolivelli

Fonte: Le Scienze

17 novembre 2016

Nuovo record per l'entanglement quantistico

Nuovo record per l'entanglement quantistico 

Credit: Chris, via flickr.com

Un esperimento ha dimostrato per la prima volta

la correlazione quantistica a distanza tra dieci fotoni.

Il risultato, ottenuto con una tecnica sperimentale

innovativa, apre la strada ad applicazioni nell'informa-

zione quantistica e nel teletrasporto, ma ancora non

basta a rendere competitivi i computer quantistici

di Matteo Serra

fisicacomputer sciencefisica teorica

Un gruppo di ricercatori coordinati da Xi-Lin Wang,

dell'University of Science and Technology of China

di Hefei, ha dimostrato per la prima volta l'entanglement

quantistico tra dieci fotoni, migliorando il primato

precedente: finora l'entanglement era stato ottenuto

al massimo tra otto fotoni.

I risultati dell'esperimento sono stati pubblicati su

"Physical Review Letters".

L'entanglement, uno dei fenomeni più affascinanti

e controversi della meccanica quantistica, è una

correlazione che lega particelle a distanza:

quando due particelle sono entangled, una misura

dello stato quantistico dell'una influenza anche lo

stato dell'altra (e viceversa), qualunque sia la

distanza tra le due.

Le possibili applicazioni dell'entanglement sono

molteplici, dalla crittografia al teletrasporto fino ai

computer quantistici (gli elaboratori del futuro

basati sui principi della meccanica quantistica, in

grado di sviluppare una potenza di calcolo estrema-

mente superiore ai computer classici).

Tuttavia, gli esperimenti che puntano a ottenere

l'entanglement tra più particelle presentano ancora

importanti limitazioni. In particolare, l'efficienza dei

processi che producono particelle entangled, e di

conseguenza la quantità stessa di particelle create,

è ancora piuttosto bassa.

Nuovo record per l'entanglement quantistico

Apparato sperimentale per la produzione di fotoni

entangled (Wikimedia Commons)

La maggior parte degli esperimenti di entanglement

quantistico usa fotoni (i quanti di luce).

In questi esperimenti, tipicamente si sfruttano le

proprietà di particolari cristalli, come quelli di borato

di bario: illuminati da un laser, i cristalli convertono

una piccola frazione di fotoni incidenti in una coppia

di fotoni entangled. 

Questi vengono raccolti e messi a loro volta in

entanglement con coppie di fotoni prodotte da altri

cristalli. I fotoni in uscita dai cristalli, però, sono

emessi in direzioni diverse e con polarizzazioni

opposte (la polarizzazione è la direzione di oscillazione

del campo elettromagnetico associato ai fotoni):

è questo fattore che rende l'efficienza di raccolta

dei fotoni abbastanza bassa (attorno al 40 per cento)

e limita il numero totale di fotoni entangled prodotti.

Per migliorare l'efficienza, Wang e colleghi hanno avuto

l'idea di produrre ciascuna coppia di fotoni entangled

tramite un sistema di due cristalli molto vicini tra loro,

separati da un dispositivo ottico in grado di modificare

la polarizzazione dei fotoni prodotti.

Questa configurazione a "sandwich" genera coppie

di fotoni che viaggiano nella stessa direzione e con

la stessa polarizzazione, aumentando notevolmente

l'efficienza di produzione (fino al 70 per cento).

Per creare l'entanglement a dieci fotoni, i ricercatori

hanno disposto in fila cinque di queste strutture a

sandwich, illuminandole con un laser a 0,57 watt

di potenza e raccogliendo i fotoni prodotti tramite

un altro strumento ottico.

Il risultato ottenuto dai ricercatori cinesi rappresenta

un importante passo avanti soprattutto per le possibili

ùapplicazioni nel settore dell'informazione quantistica

ù(per esempio nell'elaborazione di codici per la

correzione degli errori casuali nei computer quantistici)

e negli esperimenti sul teletrasporto, mentre non è

ancora sufficiente a rendere i computer quantistici

competitivi con quelli classici.

 
 
 

ARCHIVIO MESSAGGI

 
 << Febbraio 2019 >> 
 
LuMaMeGiVeSaDo
 
        1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28      
 
 

AREA PERSONALE

 

FACEBOOK

 
 
Citazioni nei Blog Amici: 1
 

ULTIME VISITE AL BLOG

vurlaprefazione09m12ps12vittorio.59dony686miriade159tirchio2000blogtecaolivelliellistar2012Draiostre.sa47bibanna545annamatrigianoLoneWolf1822
 

CHI PUò SCRIVERE SUL BLOG

Solo l'autore può pubblicare messaggi in questo Blog e tutti gli utenti registrati possono pubblicare commenti.
I messaggi e i commenti sono moderati dall'autore del blog, verranno verificati e pubblicati a sua discrezione.
 

CERCA IN QUESTO BLOG

  Trova
 

ARCHIVIO MESSAGGI

 
 << Febbraio 2019 >> 
 
LuMaMeGiVeSaDo
 
        1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28      
 
 
RSS (Really simple syndication) Feed Atom
 
Citazioni nei Blog Amici: 1
 

TAG CLOUD

 
Citazioni nei Blog Amici: 1
 

ARCHIVIO MESSAGGI

 
 << Febbraio 2019 >> 
 
LuMaMeGiVeSaDo
 
        1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28      
 
 
 

© Italiaonline S.p.A. 2024Direzione e coordinamento di Libero Acquisition S.á r.l.P. IVA 03970540963