Creato da blogtecaolivelli il 04/03/2012

blogtecaolivelli

blog informazione e cultura della biblioteca Olivelli

 

Messaggi del 29/04/2019

Milioni di morti in più per l'inquinamento atmosferico

Post n°2172 pubblicato il 29 Aprile 2019 da blogtecaolivelli

fonte: Le Scienze

12 marzo 2019

Milioni di morti in più per l'inquinamento atmosferico

Nuove stime della mortalità mondiale

parlano di 8,8 milioni di decessi in più

all'anno dovuti all'inquinamento atmosferico.

In Europa, la stima è di 790.000 morti

all'anno, circa il doppio di quanto calcolato

in precedenti studi.

Ad aumentare è soprattutto il rischio di

malattie cardiovascolari e polmonari, e il

principale responsabile è il particolato fine

epidemiologiaatmosferaambiente

La salute umana è minacciata dall'aria che

respiriamo molto più di quanto ritenuto finora.

Secondo le stime di un nuovo studio pubblicato

sulla rivista "European Heart Journal" da un

gruppo internazionale di ricerca, infatti,

l'inquinamento atmosferico è responsabile

ogni anno di 120 decessi in più per 100.000

abitanti nel mondo, e di 133 e 129 decessi

in più ogni 100.000 abitanti in Europa e

nell'Unione Europea a 28 stati, rispettivamente.

In termini assoluti, in un anno come il 2015,

l'eccesso di inquinanti nell'aria ha causato 8,8

milioni di morti in più nel mondo, 790.000 in

Europa, e 659.000 nell'Unione Europea.

Per il nostro continente, questo significa il

doppio delle morti rispetto alle valutazioni

epidemiologiche precedenti.

Quando si parla di inquinamento atmosferico

si pensa immediatamente ai danni ai polmoni,

che in effetti risultano statisticamente aumentati.

Ma al primo posto delle classifiche ci sono le

patologie cardiovascolari, che rendono conto

del 40-80 per cento delle morti in eccesso,

cioè il doppio di quanto è attribuito alle patologie

polmonari.

Milioni di morti in più per l'inquinamento atmosferico

Smog a Milano, gennaio 2019 (Marco Bonfanti/iStock)

Se si considera in particolare l'Europa, lo studio

ha calcolato che il triste primato della patologia

più letale è la malattia ischemica (cioè sostanzial-

mente l'infarto cardiaco, con 40 per cento dei

decessi in più), seguita dall'ictus (8 per cento),

dalla polmonite (7 per cento), dal tumore del

polmone (7 per cento) dalla broncopneumopatia

cronica ostruttiva (6 per cento).

Eloquenti anche i dati disaggretati per nazione.

Guardando ai paesi paragonabili al nostro per

popolazione e livello di sviluppo socio-economico,

il primato negativo spetta alla Germania, con un

tasso di mortalità in eccesso dovuto

all'inquinamento atmosferico di 154 su 100.000,

corrispondenti a una riduzione di 2,4 anni

nell'aspettativa di vita.

L'Italia segue subito dopo, con 136 morti in

eccesso ogni 100.000 abitanti e una riduzione

dell'aspettativa di vita di 1,9 anni e, un po'

staccati, la Francia (105 morti in eccesso ogni

100.000 abitanti e riduzione dell'aspettativa

di vita di 1,6 anni) e il Regno Unito (98 morti in

eccesso ogni 100.00 0 abitanti e riduzione

dell'aspettativa di vita di 1,5 anni).

Esaminando ancora più in dettaglio i dati italiani, 

l'inquinamento atmosferico causa complessivamente

la morte di circa 81.000 persone all'anno,

29.000 (36 per cento) per malattie cardiovascolari

e 35.000 (43 per cento) per altre cause.

I tassi di mortalità in eccesso sono particolarmente

alti nei paesi dell'Europa orientale, come Bulgaria,

Croazia, Romania e Ucraina, con oltre 200 ogni

anno per 100.000 abitanti.

"L'elevato numero di morti in più causate

dall'inquinamento atmosferico in Europa è spiegato

dalla combinazione di scarsa qualità dell'aria e

dalla densità della popolazione, che porta a

un'esposizione tra le più alte del mondo: anche

se l'inquinamento atmosferico nell'Europa orientale

non è molto più elevato di quello dell'Europa

occidentale, il numero di morti in eccesso causato

è più alto", ha spiegato Jos Lelieveld, del Max-

Plank-Institut per la Chimica di Mainz, in Germania,

e del Cyprus Institute di Nicosia, Cipro, coautore

dell'articolo. "Bisogna poi tenere conto dell'assistenza

sanitaria più avanzata nell'Europa occidentale,

dove l'aspettativa di vita è generalmente più alta".

Per quanto riguarda l'analisi degli inquinanti,

gli autori mettono sotto accusa principalmente il

particolato più fine PM2,5 (particelle di diametro

inferiore a 2,5 micron). Attualmente, nell'Unione

Europea il limite medio annuo per il PM2,5 è di 25

microgrammi per metro cubo, un valore già 2,5

vote superiore alla soglia raccomandata

dall'Organizzazione mondiale della sanità (OMS).

E molti paesi europei supernao regolarmente anche

questa soglia più elevata.

Questi risultati, secondo i ricercatori, dovrebbero

spronare i governi nazionali e le agenzie

internazionali a intraprendere azioni urgenti per

ridurre l'inquinamento atmosferico, compresa una

nuova valutazione della legislazione sulla qualità

dell'aria e un abbassamento degli attuali limiti

dell'Unione Europea ai livelli medi annuali delle

Linee guida dell'OMS.(red)

 
 
 

La vita che fiorisce sul fondo degli oceani

Post n°2171 pubblicato il 29 Aprile 2019 da blogtecaolivelli

fonte: Le Scienze

09 marzo 2019

Le sorgenti calde sul fondo dell'oceano, ricche di vita

animale, sono state scoperte per la prima volta 40 anni fa.

Da allora, le conoscenze su come fa la vita a prosperare

in condizioni così estreme - e quindi forse anche su altri

pianeti -  si sono moltiplicate, ma c'è ancora molto da

scoprire. E all'orizzonte ci sono progetti di sfruttamento

commerciale delle risorse di quegli ecosistemidi Cindy Lee

Van Dove/Nature

biologiaambienteSono passati quattro decenni da quando

 Corliss e colleghi descrissero su "Science" i fluttuanti ammassi

di vermi tubo giganti, lunghi un metro, scoperti nei pressi delle

sorgenti calde sul fondo dell'oceano.

Fino a quel momento, il fondo oceanico era ritenuto più simile

a un deserto che a un'oasi.

Corliss e colleghi non scoprirono per caso le sorgenti calde

sottomarine; in effetti, stavano cercando verificare l'ipotesi

della loro esistenza.

Le teorie sui movimenti delle placche tettoniche avevano aperto

la strada a quella scoperta suggerendo che le catene di rilievi che

cingono il globo sul fondo dell'oceano, definite come centri di

espansione, fossero siti vulcanici ai margini delle placche tettoniche.

Un indizio cruciale dell'esistenza delle sorgenti termali sottomarine

era il flusso di calore conduttivo inaspettatamente basso nella

crosta oceanica.

Un flusso convettivo di calore attraverso le sorgenti calde poteva

risolvere l'enigma di questo calore mancante.

Le anomalie dell'acqua ad alta temperatura documentate sopra di

un centro di espansione chiamato dorsale delle Galapagos

guidarono Corliss e colleghi al sito in cui scoprirono le sorgenti

termali sottomarine (dette anche camini, o fumarole, idrotermali).

La vita che fiorisce sul fondo degli oceani

Mappa globale dei camini idrotermali oceanici

(Savant-fou/NOAA/Wikimedia Commons)Trovare queste sorgenti

termali fu già di per sé una scoperta incredibile.

Ma ciò che veramente sconvolse la scienza del mare profondo furono

le inaspettate oasi di vita bagnate da quelle acque tiepide.

Durante l'immersione nel sommergibile Alvin che portò alla scoperta,

il geologo Jack Corliss chiamò l'equipaggio della nave di appoggio

a 2,5 chilometri più in sù e chiese: "L'oceano profondo non

dovrebbe essere come un deserto?" "Sì", fu la risposta.

"Beh, ci sono un sacco di animali quaggiù".

Quel breve scambio segnò quella che fu probabilmente la

più grande scoperta nell'oceanografia biologica fino a ora,

e che fu fatta da un gruppo di geologi e geochimici.

Nel loro articolo, gli autori sottolinearono profeticamente:

"Queste fragili comunità offrono un'opportunità unica per

una vasta gamma di studi zoologici, batteriologici, ecologici

e biochimici". Che cosa è scaturito da quegli studi?

Non ci volle molto prima che i biologi scoprissero quanto

si fossero adattati efficacemente al loro ambiente i vermi tubo giganti.

In quella profonda oscurità, generare energia cellulare con

la fotosintesi non è un'opzione valida.

E poiché il materiale organico prodotto sulla superficie dell'oceano

perde gran parte del suo valore nutrizionale quando raggiunge

il fondo del mare profondo, non fornisce una fonte di energia

adatta a sostenere dense popolazioni di grandi organismi.

Invece, gli abitanti delle sorgenti calde che vivono in acqua

ad alta temperatura arricchita di solfuro di idrogeno e altri

composti inorganici chimicamente ridotti (come il metano)

beneficiano di batteri simbiotici o liberi che generano energia

con la chemiosintesi, cioè l'ossidazione chimica di quei composti

ridotti.

Poco dopo le prime scoperte nel sito delle Galapagos, in un altro

sito oceanico fu scoperto un altro tipo di sorgente termale

chiamato camino nero, che emette fluidi idrotermali ricchi di metalli.

Gli ecosistemi delle sorgenti calde ora sono stati scoperti

nei centri di espansione del fondale marino in tutto il mondo.

Esistono circa mille o più oasi sottomarine, adagiate come

minuscole perle lungo i centri di espansione.

Per quanto numerosi, sono un habitat raro, se si calcola l'area

totale che occupano: tutti insieme, potrebbero stare nell'isola

di Manhattan, e rimarrebbe ancora dello spazio libero.

Sono anche habitat effimeri, che durano per anni o decenni, o

forse secoli, a seconda delle condizioni geologiche.

Questo solleva la questione di come si mantengono le popolazioni

di invertebrati e di quale sia la natura delle barriere biogeografiche

tra popolazioni nelle sorgenti termali.

I cicli vitali di quasi tutti gli invertebrati che vivono nelle sorgenti

termali sottomarine comprendono uno stadio larvale diffuso nella

colonna d'acqua.

L'ecologia larvale, la connettività di popolazione, nonché le

barriere oceanografiche e le rotte di trasporto sono temi chiave

della ricerca attuale.

Nelle sorgenti termali dei diversi centri di espansione si trovano

tipi differenti di specie.

E alcuni centri di espansione nell'emisfero australe e nell'Artide

sono ancora da esplorare, aumentando la possibilità che vi si

trovino tipi di rapporti e di adattamenti tra batteri e invertebrati

prima sconosciuti.

La vita che fiorisce sul fondo degli oceani

Riftia pachyptila, conosciuto anche come verme tubo gigante

(Credit: NOAA Okeanos Explorer Program, Galapagos Rift

Expedition 2011)Specie sorprendenti e strabilianti adattamenti

biologici continuano a venire alla luce.

I vermi di Pompei (Alvinella pompejana) vivono a temperature

fino a 42 °C. Queste sono tra le temperature più estremesopportate

da qualsiasi animale multicellulare sulla Terra.

I vermi ci sfidano a capire in che modo le proteine nell'organismo

degli animali siano protette dalla fusione.

I microrganismi chiamati Archaea possono vivere a 121 °C: sono

le condizioni di vita più calde conosciute sulla Terra.

I gamberetti "ciechi" (Rimicaris exoculata) mostrano "occhi"

altamente modificati che si ritiene possano rilevare variazioni

di luce fioca emessa dai fluidi a 350 °C dei camini neri, aiutandoli

a evitare di essere "cotti" dal calore. I granchi Yeti (Kiwa tyleri)

hanno artigli e zampe pelosi che consentono loro di "allevare"

i batteri di cui si nutrono. Le lumache della specie Chrysomallon

squamiferum strisciano su "piedi" protetti da scaglie metalliche

di un tipo che non si trova in altri molluschi viventi o fossili e

offrono ispirazione per la progettazione di materiali per le

armature.

L'importanza della chemiosintesi microbica nei pressi delle

sorgenti termali ci spinge anche a ripensare le nostre idee sulle

condizioni estreme a cui può adattarsi la vita, sul'origine della

vita su questo pianeta e anche sul potenziale della vita altrove

nell'universo.

Le missioni della NASA verso Marte degli anni Settanta erano

alla ricerca di prove della presenza di vita basata sull'energia della

luce solare; ora le missioni planetarie prendono in considerazione

anche la possibilità di una vita alimentata dall'energia chimica.

Gli astrobiologi studiano le sorgenti calde sottomarine per gettare

uno sguardo a condizioni che potrebbero essere simili a quelle

della Terra primordiale e considerano le sorgenti calde oceaniche

dei possibili analoghi di ambienti sottomarini alieni su mondi

oceanici al di là del nostro pianeta.

Gli incentivi scientifici dell'esplorazione delle sorgenti termali

vanno di pari passo con gli incentivi ingegneristici a progettare

e costruire veicoli sempre più capaci di raggiungere il fondo

marino in modo preciso e affidabile.

Prima sono arrivati i veicoli comandati a distanza, e seguiti ben

presto da veicoli subacquei autonomi, preprogrammati per

scivolare sul fondo del mare come droni, con un carico di strumenti

che mappano il fondale marino e rilevano le proprietà dell'acqua.

Lo sviluppo di cavi che trasmettono dati video consente di

trasmettere queste immagini in tempo reale in tutto il mondo su

siti Web accessibili gratuitamente (comeNautilusLive e

 Ocean Networks Canada).

La vita che fiorisce sul fondo degli oceani

Camini idrotermali sul fondo oceanico nella zona delle Isole

Marianne, nell'Oceano Pacifico (Credit: NOAA Expedition &

Research)L'ultima generazione di veicoli per le profondità marine

in fase di sviluppo sta sta trasformando l'uso per la scoperta e la

ricerca scientifica in un ruolo commerciale.

Sono stati progettati, costruiti e testati mole, frese e campionatori

di dimensioni gigantesche per l'estrazione di depositi di solfuro

sul fondo marino prodotti dall'attività idrotermale.

Una società canadese si è assicurata le concessioni per effettuare

estrazioni di di rame, oro e argento nelle sorgenti calde del Mare di

Bismarck, anche se finora non ci sono attività di estrazione

commerciale di giacimenti di solfuro dai depositi marini.

Molte nazioni hanno messo sotto protezione gli ecosistemi delle

sorgenti calde nei loro territori, ma il destino degli ecosistemi che

si trovano in aree al di fuori dei confini nazionali è nelle mani

dell'International Seabed Authority, che attualmente sta rivedendo

il proprio codice minerario.

L'attenzione potrebbe spostarsi dall'estrazione presso le sorgenti

termali attive, che rischia di distruggere le specie associate, allo

sfruttamento dei solfuri in luoghi senza segni visibili di flusso

di fluido idrotermale o organismi dipendenti dai camini, ma

questa conclusione non è ancora garantita.

Le azioni che saranno intraprese nel prossimo futuro

determineranno se la frontiera della scoperta a sorgenti termali

aperta da Corliss e colleghi 40 anni fa passerà dall'esplorazione

allo sfruttamento.

(L'originale di questo articolo è stato pubblicato su Nature

il 4 marzo 2019. Traduzione ed editing a cura di Le Scienze.

Riproduzione autorizzata, tutti i diritti riservati)

 
 
 

La presa giusta per una collaborazione uomini-robot

Post n°2170 pubblicato il 29 Aprile 2019 da blogtecaolivelli

fonte: Le Scienze

La presa giusta per una collaborazione uomini-robot

Afferrare un oggetto per passarlo a

un'altra persona è un gesto semplice

per gli esseri umani ma non per i robot,

che hanno parecchi problemi a eseguirlo.

Un nuovo studio, effettuato alla Scuola

Superiore Sant'Anna di Pisa in collaborazione

con ricercatori australiani, ha ora definito i

principi che guidano la presa giusta per

compiere il gesto, aprendo la strada a una

collaborazione migliore tra uomo e macchina

(red)

 

fonte: Le Scienze

I principi guida che regolano il modo

in cui si afferra un oggetto per passarlo

a un altro sono stati definiti da ricercatori

dell'Istituto di biorobotica della Scuola

Superiore Sant'Anna di Pisa, con la

collaborazione del centro per la visione

robotica del Politecnico del Queensland a

Brisbane, che li illustrano in un articolo su

"Science Robotics". Il risultato permetterà

di ottenere una migliore cooperazione tra

gli esseri umani e i robot, sempre più

presenti nella nostra vita quotidiana


La presa giusta per una collaborazione uomini-robot

© Scuola Superiore Sant'AnnaUno dei punti

più delicati dell'interazione fra robot è il

passaggio di oggetti.

Lungi dall'essere un compito semplice, l'atto

coinvolge pesantemente e in contemporanea

sia i sistemi di controllo sensoriale che quelli

motori, ed è influenzato da molti fattori relativi

all'oggetto  (forma, dimensione e funzione),

al compito (entità dello spostamento), ai

vincoli della presa (dimensioni della mano

umana o della pinza, forza della presa) e a

vincoli casuali (la posizione iniziale dell'oggetto).

"Quando per esempio passiamo un cacciavite

a qualcuno che lo deve usare - spiega

Francesca Cini, prima firmataria dell'articolo

- lasciamo libero il manico per facilitare la

presa e l'uso dell'oggetto.

Lo scopo della nostra ricerca è trasferire

tutti questi principi guida a un sistema robotico."

Per identificare il modo in cui viene selezionata

e attuata la presa, i ricercatori hanno chiesto

ad alcune coppie di persone di afferrare e

passarsi una serie di oggetti - per esempio

una penna chiusa e una aperta, una chiave,

un cacciavite, un bicchiere pieno e uno vuoto,

un oggetto leggero come un foglio e uno

pesante - che hanno  ripreso con delle

telecamere per poi analizzare fotogramma

per fotogramma i movimenti e la direzione

degli sguardi.

Questa analisi ha permesso di identificare

una serie di parametri, per esempio le

condizioni che inducono a preferire una

presa di precisione o una di potenza

(caratterizzate da differenti posizioni delle

falangi), e di notare che nel passaggio

dell'oggetto da una persona all'altra era

sistematicamente preferita la presa di precisione,

che lascia al ricevente abbastanza spazio

per afferrare comodamente l'oggetto.

"Abbiamo bisogno di una nuova generazione

di robot progettati per interagire con gli esseri

umani in modo naturale", ha concluso Marco

Controzzi, coautore dello studio.

"Questi risultati ci permetteranno di istruire

il robot a manipolare gli oggetti attraverso

l'introduzione di semplici regole."

 
 
 

Nasce il primo viticcio artificiale in grado di arrampicarsi

Post n°2169 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

24 gennaio 2019

Nasce il primo viticcio artificiale

in grado di arrampicarsi

Nasce il primo viticcio artificiale in grado di arrampicarsi

Comunicato stampa -

E' un robot soffice ispirato alle piante

rampicanti, realizzato dal gruppo di

ricerca coordinato da Barbara Mazzolai.

Il lavoro pubblicato su Nature

CommunicationsIIT-Istituto Italiano di Tecnologia:

robotica

24 gennaio 2019, Pontedera (Pisa) -

Ottenuto in Italia il primo robot che imita il

comportamento dei viticci, arrotolandosi a

spirale intorno a un supporto: è un robot

soffice che si muove sfruttando lo stesso

principio fisico che fa muovere l'acqua nei

tessuti delle piante rampicanti ed è stato

realizzato dai ricercatori del Centro di

Micro-BioRobotica dell'IIT-Istituto Italiano

di Tecnologia a Pontedera (Pisa), guidati

da Barbara Mazzolai. Il lavoro è stato

descritto nella rivista Nature Communications,

e in futuro potrebbe essere d'ispirazione per

lo sviluppo di dispositivi indossabili, come tutori,

in grado di cambiare forma.

Il gruppo di ricerca guidato da Mazzolai, include

i ricercatori Edoardo Sinibaldi e Indrek Must,

tutti con una formazione e competenze complementari:

Must è un tecnologo dei materiali con un

dottorato in ingegneria e tecnologia, Sinibaldi un

ingegnere aerospaziale con un dottorato in matematica

applicata, Mazzolai una biologa con un dottorato in

ingegneria dei microsistemi.

Mazzolai è stata tra le 25 donne geniali della robotica

nel 2015 secondo RoboHub, ed è autrice del primo

robot pianta al mondo, il Plantoide.

I ricercatori hanno tratto ispirazione dal comporta-

mento delle piante, le quali non sono affatto

esseri immobili.

Per esempio, le radici crescono bilanciando la

ricerca di nutrienti con la necessità di evitare

ostacoli e sostanze dannose.

Inoltre, non potendo scappare - diversamente

dagli animali, le piante quando si muovono, in

realtà "crescono", si allungano, adattando continua-

mente la loro morfologia all'ambiente esterno.

Tale "crescita" è quello che accade nei viticci delle

piante rampicanti, che sono in grado di arrotolarsi

e srotolarsi attorno a supporti esterni per favorire

il benessere della pianta stessa.

In questo lavoro, i ricercatori hanno studiato i

meccanismi naturali grazieai quali le piante

sfruttano il trasporto dell'acqua al loro interno

per muoversi e li hanno replicati in un robot soffice.

Il principio idraulico in questione si chiama "osmosi"

e si basa sulla presenza di piccole particelle presenti

nel liquido (citosol) contenuto all'interno delle cellule

della pianta. L'osmosi determina il movimento dei

viticci.

Il robot soffice è stato creato partendo da un

modello matematico, che ha determinato le

dimensioni del robot affinché i movimenti guidati

dall'osmosi non fossero troppo lenti.

Il robot ha quindi acquisito la forma di un piccolo

viticcio, in grado di compiere movimenti reversibili

- arrotolamento e srolotamento - come fanno

anche le piante.

Il corpo del viticcio artificiale è stato realizzato

con un tubo flessibile di PET (un comune polimero

spesso usato anche per contenere alimenti),

all'interno del quale è presente un liquido con ioni.

Sfruttando una batteria da 1.3 Volt, gli ioni vengono

attirati e immobilizzati sulla superficie di elettrodi

flessibili alla base del viticcio, dando vita a un

processo osmotico e causando, così, il movimento

del liquido stesso, da cui lo srotolamento del viticcio

artificiale.

L'arrotolamento si ottiene rimuovendo l'effetto della

batteria, sfruttando il circuito elettrico in cui essa

è inserita.

È la prima volta che si mostra la possibilità di

sfruttare l'osmosi per azionare movimenti reversibili.

Il fatto di esserci riusciti usando una comune batteria

e dei tessuti flessibili suggerisce la possibilità di creare

robot soffici facilmente adattabili all'ambiente

circostante, senza creare danni a oggetti o esseri viventi.

Le possibili applicazioni potranno spaziare dalle

tecnologie indossabili allo sviluppo di braccia

robotiche flessibili per esplorazione.

La sfida nell'imitare le capacità delle piante di

muoversi in ambienti mutevoli e non strutturati

è appena iniziata.

In questo contesto, Mazzolai e il suo gruppo

sono coinvolti in nuovo progetto, il progetto

GrowBot, finanziato dalla Commissione Europea

nell'ambito del programma FET Proactive che

prevede lo sviluppo di un robot che, non solo

sia in grado di riconoscere le superfici a cui

attaccarsi o i supporti a cui ancorarsi, ma riesca

a farlo mentre cresce e si adatta all'ambiente

circostante.

Proprio come fanno in natura le vere piante

rampicanti.

 
 
 

Una terra rara per le memorie quantistiche

Post n°2168 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

30 luglio 2018

Una terra rara per le memorie quantistiche  (Cortesia: Unige) 

L'itterbio, un elemento delle cosiddette

terre rare, è l'ideale per realizzare memorie

quantistiche in grado di intrappolare e

sincronizzare ad alta frequenza i fotoni che

garantiscono una crittografia delle

comunicazioni digitali(red)

computer sciencemateriali

Una rete di computer che basano il loro

funzionamento sulla meccanica quantistica,

con una capacità di calcolo inarrivabile per

le macchine attuali basate sull'elettronica.

E anche impossibili da violare senza distruggere

l'informazione stessa.

È uno degli obiettivi della computer science, e

da oggi sembra più vicino, grazie al risultato 

descritto su "Nature Materials" da ricercatori

dell'Università di Ginevra in collaborazione con

il CNRS francese.

Cuore del risultato è una memoria quantistica

a base dell'elemento chimico itterbio, che soddisfa

importanti richieste tecniche che erano fuori portata.

La crittografia quantistica oggi usa fibre ottiche

lunghe centinaia di chilometri, protette da un

elevato grado di sicurezza.

Chi volesse infatti copiare o intercettare l'informa-

zione che trasmettono determinerebbe la

scomparsa dell'informazione stessa.

La volatilità dell'informazione veicolata da

questi sistemi rende tuttavia anche impossibile

amplificare il segnale e propagarlo su distanze

ancora più lunghe.

Una terra rara per le memorie quantistiche

Particolare del dispositivo che ha testato la

nuova memoria a base di itterbio.

(Cortesia: Unige) Per aggirare il problema, i 

ricercatori stanno lavorando su memorie quantistiche

in grado di catturare i fotoni che viaggiano attraverso

le fibre ottiche e di sincronizzarli in modo da poterli

diffondere su distanze sempre più grandi.

Ma finora è mancato un materiale giusto per

questo scopo.

"La difficoltà era trovare un materiale in grado

di isolare dai disturbi ambientali l'informazione

quantistica veicolata dai fotoni, in modo da tenerli

fermi per un secondo circa e poterli sincronizzare",

ha commentato Mikael Afzelius, coautore dello

studio.

"Inoltre, bisogna considerare che i fotoni

viaggiano a quasi 300.000 chilometri al secondo".

In altre parole, il materiale dovrebbe essere

assai ben isolato dal contesto e in grado di

immagazzinare ripetutamente fotoni con

un'altissima frequenza. E queste due richieste

sono in contrasto tra loro.

L'idea dei ricercatori che si occupano di questo

campo d'indagine è usare qualche membro delle

cosiddette terre rare, un gruppo di 17 elementi.

Alcuni test effettuati in passato con elementi

come europio e praseodimio però avevano dato

risultati negativi.

"Così ci siamo rivolti a un elemento che finora

aveva ricevuto scarsa attenzione: l'itterbio, che

ha numero atomico 70", ha spiegato Nicolas Gisin.

Collocando l'itterbio in un campo magnetico con

caratteristiche opportune gli autori hanno osservato

che l'atomo di questo elemento diventa insensibile

ai disturbi ambientali.

Ciò lo rende la soluzione ideale per intrappolare

i fotoni e sincronizzarli.

Gli autori hanno trovato in sostanza un 'punto

magico' variando l'ampiezza e la direzione del

campo magnetico: in corrispondenza di questo

punto, il tempo di coerenza dell'itterbio, cioè il

tempo medio dopo il quale l'atomo viene disturbato

dall'ambiente circostante, aumenta di oltre 1000

volte, pur lavorando ad alte frequenze.

Raggiunto questo risultato, la prospettiva è 

realizzare memorie e reti quantistiche a base

d'itterbio.

"Questo materiale apre la strada alla possibilità

di ottenere un network quantistico globale: è da

sottolineare quanto sia importante in questo tipo

di studi portare avanti la ricerca fondamentale

parallelamente a quella applicativa", hanno

concluso i ricercatori.

 
 
 

L'uccello e la farfalla: un nuovo modello della capacità di generalizzare

Post n°2167 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

11 maggio 2018

 

L'uccello e la farfalla: un nuovo modello della capacità di generalizzare

La capacità di fare generalizzazioni a partire

da singole esperienze è essenziale per la

sopravvivenza, ma se la generalizzazione è

sbagliata - troppo ampia o troppo limitata -

può avere l'effetto contrario.

Una nuova teoria sui fondamenti di questa

capacità, perfezionando modelli precedenti,

potrebbe permettere di applicarla in modo

corretto anche nei sistemi di intelligenza

artificiale(red)

comportamentopsicologiacomputer science

Un nuovo modello matematico della nostra

capacità di generalizzare a partire dalle

esperienze è stato proposto da Chris R. Sims,

ricercatore del Rensselaer Polytechnic Institute

a Troy, nello stato di New York, in un articolo

pubblicato su "Science". Lo studio si inserisce

nel filone delle ricerche per rendere sempre

più accurati gli algoritmi usati nell'intelligenza

artificiale e in particolare nell'apprendimento

automatico.

Saper fare generalizzazioni corrette è

essenziale per la sopravvivenza.

Per esempio, se un uccello mangia una farfalla

velenosa o sgradevole, imparerà rapidamente

a evitare tutti gli insetti che le assomigliano.

Il problema è che, per quanto simili, non esiston

o due specie di farfalle esattamente uguali.

Se la generalizzazione è troppo limitata, l'uccello

continuerà a consumare farfalle tossiche.

Se invece la generalizzazione è troppo ampia,

portandolo a evitare tutte le farfalle, si priverà

inutilmente di una fonte alimentare, riducendo

la propria fitness, ossia la capacità adattativa

all'ambiente.

L'uccello e la farfalla: un nuovo modello della capacità di generalizzare

© Biosphoto / AGFNel 1987 lo psicologo cognitivista

Roger N. Shepard propose quella che chiamò

"legge universale di generalizzazione", secondo

cui la probabilità che la risposta a uno stimolo sia

generalizzata a un altro stimolo diminuisce in base

a una funzione esponenziale della loro distanza

all'interno di un appropriato "spazio psicologico".

Grazie a opportune formalizzazioni dell'idea di

distanza fra due stimoli è stato possibile testare

la validità della legge di Shepard.

Tuttavia, pur funzionando bene in molte situazioni,

questi modelli incontrano delle difficoltà via via

che lo stimolo è più complesso e l'ambiente è

"rumoroso",ossia fonte di possibili fattori che

confondono: un difetto che diventa particolarmente

evidente negli algoritmi utilizzati nei sistemi di i

ntelligenza artificiale.

(Basti pensare agli algoritmi di Facebook che

cancellano un'immagine di nudo generalizzandola

come pornografica anche se magari è la Primavera

di Botticelli).

Nel nuovo studio Sims propone una spiegazione

della legge universale di generalizzazione che

parte da una prospettiva differente.

In particolare, dimostra che la forza della generaliz-

zazione è strettamente legata al costo dell'errore

percettivo che può provocare: per esempio, portando

l'uccello a considerare velenosa la farfalla mentre è

commestibile, o al contrario a ritenerla innocua

quando lo è.

Sims prospetta quindi una formalizzazione basata

sul cosiddetto principio di codifica efficiente,

secondo il quale - date alcune limitazioni, come la

quantità di memoria disponibile e l'incertezza nelle

informazioni sensoriali - i sistemi biologici sono

ottimizzati per impiegare le minori risorse di

elaborazione possibile per ottenere le massime

prestazioni.

In parole povere, per ottenere il massimo del

risultato al minimo del costo.

Integrando queste due prospettive, osserva

Shepard, dovrebbe essere possibile far compiere

un ulteriore salto di qualità agli algoritmi usati

nei sistemi di intelligenza artificiale, mettendoli

in grado di effettuare generalizzazioni corrette.

 
 
 

Scoperta una nuova specie umana estinta nelle Filippine

Post n°2166 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

11 aprile 2019

L'analisi di frammenti di ossa e di denti

scoperti in una grotta del paese del Sudest

asiatico hanno rivelato una specie di piccola

statura, vissuta oltre 50.000 anni fa, che i

ricercatori hanno chiamato Homo luzonensis

I resti provengono da almeno due adulti e

un bambino

antropologiaevoluzionepaleontologia

L'albero genealogico umano ha visto spuntare

un altro ramo, dopo che alcuni ricercatori hanno

portato alla luce i resti di una specie di ominini

precedentemente sconosciuta in una grotta

delle Filippine. Gli scienziati hanno chiamato la

nuova specie, che probabilmente era di piccola

corporatura, Homo luzonensis.

La scoperta, riportata su "Nature", probabilmente

riaccenderà i dibattiti sull'epoca in cui gli antichi

parenti degli esseri umani hanno lasciato l'Africa.

E l'età dei resti - probabilmente risalenti a

50.000 anni fa - suggerisce che diverse specie

umane sono coesistite in tutto il Sudest asiatico.

Le prime tracce della nuova specie sono emerse

più di un decennio fa, quando alcuni ricercatori

hanno riferito la scoperta di un osso del piede

risalente ad almeno 67.000 anni fa nella grotta

di Callao, sull'isola di Luzon, nelle Filippine.

I ricercatori non erano sicuri di quale specie fosse

l'osso, ma hanno riferito che somigliava a quello

di un piccolo Homo sapiens.

Scoperta una nuova specie umana estinta nelle Filippine

Una delle falangi del piede scoperte nella grotta

di Callao e analizzate nello studio.

(Credit: Callao Cave Archaeology Project)Ulteriori

scavi della grotta di Callao hanno scoperto un

femore, sette denti, due ossa del piede e due

ossa della mano con caratteristiche diverse da

quelle di altri parenti umani, sostiene il gruppo,

co-diretto da Florent Détroit, paleoantropologo

del Museo nazionale di storia naturale di Parigi.

I resti provengono da almeno due adulti e un

bambino.

"Insieme, rappresentano una solida

argomentazione a favore della conclusione che

si tratti di qualcosa di nuovo", afferma Matthew

Tocheri, paleoantropologo della Lakehead

University di Thunder Bay, in Canada.

La storia degli ominini
H. luzonensis è la seconda nuova specie umana

a essere identificata nel Sudest asiatico in anni

recenti.

Nel 2004, un altro gruppo ha annunciatola scoperta

di Homo floresiensis - noto anche come lo Hobbit -

una specie che probabilmente superava di poco

il metro di altezza, sull'isola indonesiana di Flores.

Ma Détroit e colleghi sostengono che i resti della

grotta di Callao sono diversi da quelli diH.

floresiensis e altri ominini - inclusa una specie

chiamata Homo erectus, che si ritiene sia stata

il primo antenato degli esseri umani a lasciare

l'Africa, circa due milioni di anni fa.

I molari appena scoperti sono estremamente

piccoli rispetto a quelli di altri antichi antenati umani.

Le cuspidi dei molari, come quelle di H. sapiens,

non sono tanto pronunciate quanto nei precedenti

ominini. La forma dello smalto interno dei molari è

simile a quella di entrambi gli esemplari di H.

sapiens e H. erectus trovati in Asia.

I premolari scoperti nella grotta di Callao sono

piccoli ma ancora nell'intervallo di quelli di H. sapiens

 e H. floresiensis.

Ma gli autori riferiscono che la dimensione complessiva

dei denti, così come il rapporto tra dimensione dei

molari e dei premolari, è diversa da quella degli altri

membri del genere Homo.

Anche le ossa del piede di H. luzonensis hanno

una forma peculiare. Somigliano più a quelle

dell'Australopithecus, ominini primitivi, inclusa la

famosa fossile Lucy, che si ritiene non abbiano

mai lasciato l'Africa.

Le curvature delle ossa dei piedi e di un osso di

un dito di H. luzonensissuggeriscono che la

specie potrebbe essere stata abile nell'arrampicarsi

degli alberi.

I ricercatori sono cauti nello stimare l'altezza di H.

luzonensis, perché i resti disponibili sono pochi.

Ma considerati i suoi piccoli denti, e l'osso del piede

descritto nel 2010, Détroit pensa che le sue dimensioni

corporee fossero nell'intervallo di quelle di piccoli

 H. sapiens, come i membri di alcuni gruppi etnici indigeni

che vivono a Luzon e altrove nelle Filippine ancora oggi,

a volte noti collettivamente come Negritos delle Filippine.

Gli uomini di questi gruppi che vivono a Luzon hanno

un'altezza media di circa 151 centimetri e le donne di

circa 142 centimetri.

La giusta misura
I ricercatori soni divisi su come H. luzonensis si

inserisca nell'albero genealogico umano. Détroit è

a favore dell'idea che la nuova specie discenda da

un gruppo di H. erectus i cui corpi si sono evoluti

gradualmente in forme diverse da quelle dei loro

antenati.

"Sulle isole ci possono essere diverse traiettorie

evolutive", afferma il paleontologo Gerrit van den

Bergh dell'Università di Wollongong in Australia.

"Possiamo immaginare H. erectus che arriva su isole

come Luzon o Flores, e non ha più bisogno di impegnarsi

nella corsa di resistenza, ma ha bisogno di adattarsi

a passare la notte sugli alberi".

Scoperta una nuova specie umana estinta nelle Filippine

Due premolari e tre molari attribuiti a H. luzonensis. 

 Date le somiglianze della specie con l'Australopithecus,

Tocheri si chiede se gli abitanti della grotta di Callao

fossero i discendenti di una linea emigrata dall'Africa

prima di H. erectus.

Il materiale genetico proveniente dai resti potrebbe

aiutare gli scienziati a identificare la relazione della

specie con altri ominini, ma finora gli sforzi per

estrarre il DNA da H. luzonensis sono falliti.

Tuttavia, ossa e denti sono stati datati ad almeno

50.000 anni fa. Ciò suggerisce che la specie

probabilmente girovagava nel Sudest Asiatico nelle

stesse epoche di H. sapiensH. floresiensis e un

misterioso gruppo noto come Denisova, il cui DNA

è stato trovato negli esseri umani contemporanei

nel Sudest Asiatico.

"Il Sudest Asiatico insulare sembra essere pieno

di sorprese paleontologiche che complicano i

semplici scenari di evoluzione umana", afferma

William Jungers, paleoantropologo della Stony

Brook University di New York.

(L'originale di questo articolo è stato 

pubblicato su "Nature" l'11 aprile 2019.

Traduzione ed editing a cura di Le Scienze.

Riproduzione autorizzata, tutti i diritti

riservati.)

 
 
 

L'imperfezione che rende affidabili i qubit

Post n°2165 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

02 novembre 2018

L'imperfezione che rende affidabili i qubit

L'imperfezione che rende affidabili i qubit

Un progresso fondamentale verso i computer

quantistici è stato ottenuto usando fibre ottiche

nanoscopiche in silicio organizzate in un reticolo

in cui l'uniformità dello schema viene alterata

da un'imperfezione, che rende più stabile la

correlazione tra fotoni che codificano l'informazione

binaria quantistica, i qubit(red)

fisicacomputer science

Fotoni che viaggiano attraverso un reticolo

imperfetto di fibre ottiche di dimensioni nano-

scopiche possono essere utilizzati per realizzare

unità affidabili per la costruzione dei futuri

computer quantistici.

Lo dimostra un nuovo studio pubblicato su "Science" 

da ricercatori dell'Università di Sidney, in Australia,

guidati da Andrea Blanco-Redondo, in

collaborazione con colleghi dell'Università di Haifa,

in Israele, e di Oxford, nel Regno Unito.

La transizione dai computer elettronici a

quelli quantistici è basata su una trasformazione

fondamentale nella modalità di codifica dei bit,

le unità d'informazione binaria, che possono

assumere due soli valori, indicati convenzional-

mente come 0 e 1.

I progressi degli ultimi decenni nella manipolazione

di oggetti del mondo microscopico, dominato

dalle leggi della meccanica quantistica, hanno

aperto la strada a un nuovo modo di gestire

l'informazione, in cui a codificarla sono gli stati

di un microsistema, per esempio di elettroni o

di atomi ionizzati.

La differenza è che non sono possibili solo

alcuni stati fondamentali, ma anche una loro

sovrapposizione quantistica.

Passare dal bit al qubit, il bit quantistico, consente

quindi di avere non solo 0 e 1, ma anche un

numero virtualmente infinito di loro combinazioni,

ampliando enormemente le capacità di calcolo di

una macchina basata su queste unità di base.

Un elettrone, per esempio, può avere due stati

di spin, su e giù, ma anche una combinazione

di questi stati, e quindi parrebbe uno dei sistemi

più naturali per codificare un qubit.

E in effetti non sono mancate le sperimentazioni

in questo senso.

Fin da subito però si è capito che uno dei problemi

fondamentali per arrivare a un sistema di calcolo

automatico basato su elettroni o su atomi ionizzati

è che vengono facilmente influenzati dall'ambiente

circostante, per esempio dalle interferenze

elettromagnetiche o dalla temperatura.

Un'opzione valida per aggirare questo ostacolo

consiste nell'utilizzare fotoni, i quanti di luce,

al posto degli elettroni e degli ioni.

La comunicazione tra diversi fotoni è poi garantita

da una peculiare correlazione quantistica nota

come entanglement, in cui due particelle stabiliscono

  una correlazione quantistica che si mantiene

anche quando fra di esse viene frapposta una

distanza arbitraria.

Quando si esegue una misurazione dello stato

di una particella, questo stato "precipita" assumendo

un valore ben definito.

E questa operazione fa collassare su un valore

definito anche la particella trasportata lontano,

in modo istantaneo, anche se in effetti non c'è

stato un scambio di informazione tra le due. 

Anche i qubit fotonici hanno però importanti

limitazioni, perché l'entanglement può venire

meno per vari fenomeni diffusivi incontrati dai

fotoni nel loro tragitto.

Blanco-Redondo e colleghi hanno cercato di

risolvere questi limiti con guide d'onda, in cui

passano i fotoni, formate da nanocavi si silicio

con un diametro di soli 500 nanomentri

(miliardesimi di metro) allineati lungo cammini

appaiati secondo uno schema a reticolo uniforme

a cui però viene aggiunto un difetto.

Rompendo questa uniformità di reticolo, si riesce

a imporre ai fotoni modalità di appaiamento

particolari, note come modi di bordo (edge modes).

Questi modi permettono di trasportare l'informazione

con un grado di affidabilità inarrivabile per un

reticolo uniforme, e così di proteggere i qubit.

 
 
 

L'alleanza fra virus e batteri che distrae il sistema immunitario

Post n°2164 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

04 aprile 2019

L'alleanza fra virus e batteri che

distrae il sistema immunitario

Il batterio Ps. aeruginosa, responsabile di

molte infezioni negli ospedali, inganna il

sistema immunitario usando un virus per

attirarlo lontano da sé.

La scoperta potrebbe spiegare perché il

nostro corpo tollera la presenza di alcuni

microbidi Sara Reardon / Nature

microbiologiamedicina

Un batterio responsabile del 10 per cento

circa delle infezioni contratte in ospedale

negli Stati Uniti sfrutta un virus per indurre

il sistema immunitario a ignorarlo.

Il virus, noto come fago, infetta il batterio 

Pseudomonas aeruginosa, che spesso resiste

alla terapia antibiotica.

Il fago - riferiscono i ricercatori su "Science" 

- induce il sistema immunitario a inseguirlo,

ignorando invece il microrganismo.

Il batterio e il fago, chiamato Pf, esistono

in una relazione simbiotica che gli scienziati

sospettano sia più diffusa nel mondo

microbico di quanto si creda.

La scoperta potrebbe aiutare a spiegare

perché il sistema immunitario tolleri batteri

utili, come quelli nell'intestino, e portare a

migliori terapie contro le infezioni.

L'alleanza fra virus e batteri che distrae il sistema immunitarioMicrofotografia elettronica di una colonia di 

Pseudomonas aeruginosa (© Science Photo Library / AGF)

Anche se alcuni fagi uccidono i loro ospiti

batterici, altri prosperano al loro interno senza

ucciderli.

I ricercatori hanno sospettato a lungo che questa

coesistenza indichi che i batteri si avvantaggino

in qualche modo della presenza dei virus.

Ferite aperte
Per studiare se i fagi influiscono sul modo in cui

i batteri interagiscono con i loro ospiti, l'immunologo

Paul Bollyky della Stanford University, ha raccolto

tamponi dalle ferite croniche (per esempio, ustioni

infette) di 111 persone. Di queste, 37 ferite erano

state infettate da P. aeruginosa.

I ricercatori hanno scoperto che nel 68 per cento

delle infezioni da P. aeruginosa era presente il virus

Pf. Quando Bollyky e colleghi hanno trasferito i batteri

infettati dal fago in ferite aperte sui topi, hanno

scoperto che per scatenare un'infezione bastavano

meno batteri e che i roditori avevano maggiori

probabilità di morire rispetto a quando il trasferimento

avveniva con P. aeruginosa senza Pf.

La presenza dei batteri attirava le cellule immunitarie

chiamate fagociti,che inglobano e distruggono

i batteri ma evitano i virus.

Tuttavia, quando i fagociti attaccavano le ferite

infettate da P. aeruginosa e Pf, poi si allontanavano

dalla zona abbastanza presto, dopo aver distrutto

solo pochi batteri.

Nel frattempo, i fagociti che avevano ingerito i

batteri infetti rilasciavano segnali che attirano in

loco cellule immunitarie che attaccano esclusivamente

i virus.

Vaccinando i topi contro Pf prima di infettarli con

la combinazione batterio-virus, il team è riuscito

a ridurre le infezioni indotte da P. aeruginosa.

Nuovi obiettivi
I ricercatori pensano che i fagi imitino i virus

umani producendo RNA a doppio filamento,

che innesca l'attacco del sistema immunitario.

Secondo Bollyky, meccanismi simili potrebbero

in parte spiegare perché il sistema immunitario

tolleri batteri normali e utili che vivono nel nostro

corpo.

L'alleanza fra virus e batteri che distrae il sistema immunitarioMicrofotografia elettronica di un gruppo di

batteriofagi Pf. (Cortesia University of Montana)

"È un articolo rivoluzionario", dice Andrzej Górski,

batteriologo all'Accademia polacca delle scienze a

Breslavia.

Altre ricerche avevano indicato che i fagi influenzano

l'infiammazione e che potrebbero avere un ruolo

nella prevenzione delle allergie, ma Górski dice che

questo articolo è il primo a mostrare in che modo

i fagi danneggiano la salute umana.

Questi virus non si limitano a distruggere i batteri,

possono anche influenzare il sistema immunitario

di una persona, nel bene o nel male, dice Górski.

Breck Duerkop, microbiologo all'Università del

Colorado ad Aurora, definisce la scoperta "stupefacente".

Dice che i ricercatori ora saranno costretti a

pensare in modo più aperto al microbioma, il

complesso dei batteri nel corpo umano.

"Penso che aggiunga alle interazioni ospite-

microbioma un livello di complessità finora

ampiamente trascurato".

Per il momento, Bollyky e il suo gruppo stanno

lavorando agli aspetti clinici più immediati della

scoperta.

Hanno brevettato il vaccino Pf e lo stanno

testando su suini con ustioni o ferite cutanee.

I ricercatori stanno studiando Pf come se si

trattasse di un virus umano, come l'influenza o

l'epatite, spiega Bollyky. Vogliono decifrare in

che modo Pf interagisce con il corpo e scoprire

se prenderlo di mira permette di curare meglio

le infezioni. Ma Bollyky spera che altri gruppi

inizino a cercare ulteriori coppie batterio-virus

che funzionano in modo simile.

--------------------------
(L'originale di questo articolo è stato pubblicato su

"Nature" il 28 marzo 2019. Traduzione ed editing

a cura di Le Scienze. Riproduzione autorizzata,

tutti i diritti riservati.)

 
 
 

E' un fungo la causa dell'estinzione di massa degli anfibi

Post n°2163 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

29 marzo 2019

E' un fungo la causa dell'estinzione di massa degli anfibi

Novanta specie di anfibi estinte e 500 in

drammatico calo demografico nel giro di 50

anni: è il drammatico bilancio della diffusione

di un temibile fungo patogeno al di fuori della

sua area d'origine, trasportato in tutto il mondo

dal commercio di specie esotiche

animalibiodiversitàmicrobiologia

Il commercio delle specie esotiche è responsabile

della diffusione in tutto il mondo di un fungo

patogeno originario dell'Asia che oggi rappresenta

la più grave sfida alla sopravvivenza degli anfibi

e delle rane in particolare.

"Gli esseri umani - spiega  Ben A. Scheele,

dell'Australian National University a Canberra,

che ha coordinato uno studio sul fungo

 pubblicato su "Science" - stanno spostando piante

e animali in tutto il mondo a un ritmo sempre più

rapido, introducendo agenti patogeni in nuove aree",

con effetti disastrosi.

Negli ultimi 50 anni, il fungo ha causato un

drammatico calo demografico di oltre 500 specie

e l'estinzione di 90, provocando la maggiore

perdita di biodiversità dovuta a una malattia mai

registrata negli annali della biologia.

E' un fungo la causa dell'estinzione di massa degli anfibi

Rana della specie centro-americana 

Duellmanohyla soralia, a rischio estinzione.

(Cortesia Jonathan E. Kolby, Honduras Amphibian

Rescue & Conservation Center)La malattia, chiamata

chitridiomicosi, è provocata dai funghi del genere

Batrachochytrium - in particolare da B. dendrobatidis

 e B. salamandrivorans - e degrada la cheratina della

cute, portando rapidamente alla morte gli animali.

La sua presenza è stata registrata in più di 60

paesi, e ha colpito con particolare virulenza l'Australia

- dove in 30 anni ha portato al declino di oltre 40

specie e all'estinzione di tre - e l'America centrale

e meridionale, dove hanno subito un forte declino

448 specie. (In Africa, Nord America ed Europa

sono interessate rispettivamente 14, 10 e 5 specie.)

L'unica parte del mondo in cui negli ultimi anni non

c'è stato un declino degli anfibi dovuto a questo

patogeno è l'Asia, il continente d'origine del fungo,

le cui specie locali sembrano avere acquisito nei

secoli una certa resistenza alla malattia.

Il picco del declino è stato raggiunto negli anni

ottanta, ma in seguito solo il 12 per cento delle

specie colpite ha mostrato segni di ripresa, mentre

il 39 per cento continua a declinare.

Secondo i ricercatori sono ancora molte le specie

ad alto rischio di estinzione da chitridiomicosi nei

prossimi 10-20 anni e purtroppo, osserva Scheele,

"è estremamente difficile eradicare questi funghi

da un ecosistema:  una volta che ci sono arrivati,

sono lì per restare.

Alcune specie hanno la fortuna di essere resistenti

ai funghi chitridi; ma questo significa che quelle

specie, trasportando il fungo, fanno da serbatoio

e rappresentano una costante fonte di patogeni

nell'ambiente".

E' un fungo la causa dell'estinzione di massa degli anfibi

Rana della specie sudamericana Gastrotheca testudinea.

(Cortesia Tiffany Kosch)Sapere quali sono le specie

a rischio può tuttavia aiutare a sviluppare azioni di

conservazione per prevenire l'estinzione.

In Australia, un programma di conservazione mirato e lo

sviluppo di nuove tecniche di reintroduzione ha permesso

di salvare alcune specie di anfibi.

"Le malattie altamente virulente della fauna selvatica,

tra cui la chitridiomicosi, stanno contribuendo alla

sesta estinzione di massa della Terra", ha concluso

Scheele.

"Dobbiamo fare tutto il possibile per fermare future

pandemie, migliorando la biosicurezza e la

regolamentazione del commercio della fauna selvatica

in tutto il mondo." (red)

 
 
 

Quello è il mio nome, parola di gatto

Post n°2162 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

04 aprile 2019

Quello è il mio nome, parola di gatto

Quello è il mio nome, parola di gatto

I gatti domestici sanno riconoscere il

proprio nome in base alla sua struttura

fonetica, distinguendolo da parole della

stessa lunghezza e pronunciate con la

stessa intonazione, e indipendentemente

da chi lo pronuncia

animalicomportamento

I gatti domestici sanno distinguere

perfettamente il proprio nome dalle altre

parole, compresi i nomi di altri gatti.

La cosa non stupirà chi vive con questi

piccoli felini, ma un conto è fare appello

alla propria esperienza, un altro dimostrare

scientificamente che i gatti sono in grado

di riconoscere il complesso fonetico del

loro nome, e non solo di reagire all'intonazione

con cui è pronunciato o a fattori come la

direzione dello sguardo.

A dissipare i dubbi è uno studio condotto

da un gruppo di ricercatori dell'Università

di Tokyo, che firmano un articolo

su "Nature Scientific Reports".

Atsuko Saito e colleghi hanno preso in

esame 78 gatti provenienti da diverse

famiglie giapponesi e da un neko cafè 

(neko vuol dire gatto in giapponese), un

tipo di locale pubblico particolarmente

diffuso in Giappone in cui la consumazione

è allietata dalla presenza di un certo numero

di questi animali.

Quello è il mio nome, parola di gatto

La vetrina di un neko cafè a Tokyo.

Questo tipo di locale, dove i gatti circolano

liberamente e i clienti possono accarezzarli

e giocare con loro, è particolarmente diffuso

in Giappone ma sta prendendo piede anche

in Italia (© agefotostock / AGF)

Dagli esperimenti condotti è risultato che i

gatti erano in grado di distinguere il proprio

nome da parole che avevano la stessa lunghezza,

pronunciate con la stessa intonazione e lo

stesso volume, e indipendentemente dalla

persona che le pronunciava, anche se si

trattava di un perfetto estraneo.

Per valutare le reazioni dei gatti agli stimoli,

i ricercatori hanno registrato il movimento

delle orecchie, della testa e della coda, le

eventuali vocalizzazioni e spostamenti, e

l'entità di quella reazione.

In ogni prova venivano pronunciate quattro

parole, evitando che il nome dell'animale

fossa la prima: questo perché di fronte a un

suono iniziale gli eventuali movimenti

avrebbero potuto essere solo una reazione

di allerta, reazione che però tende a scemare

con le parole successive.

Un aumento della reazione, soprattutto alla

terza o alla quarta parola, indica quindi che

quel suono ha qualcosa di particolare.

La valutazione delle reazioni degli animali è

stata poi affidata a una decina di ricercatori

che non avevano assistito ai test e che

disponevano solo della registrazione video

priva di audio, in modo da garantire che non

fossero influenzati dall'ascolto delle parole

stimolo. (red)

 
 
 

La ricetta Telethon per l'editing genetico

Post n°2161 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

27 marzo 2019

La ricetta Telethon per l'editing genetico

La ricetta Telethon per l'editing genetico

Saranno le immunodeficienze il banco di

prova prescelto dai ricercatori dell'Istituto

San Raffaele Telethon per la Terapia Genica

(SR-Tiget) per effettuare la loro prima

sperimentazione clinica con le nuove

biotecnologie di precisionedi Anna Meldolesi

/CRISPerMANIA

geneticaimmunologia

I dati sono rassicuranti. Le tecniche sono mature.

E l'istituto San Raffaele Telethon per la Terapia

Genica (SR-Tiget) è quasi pronto per il debutto.

"Non abbiamo ancora una data.

Ma nel breve periodo il nostro istituto conta di

avviare la prima sperimentazione clinica con l

'editing del DNA".

Ce lo rivela Raffaella Di Micco, group leader

all'SR-Tiget e coautrice di uno studio uscito

recentemente su "Cell Stem Cell" in collabora-

zione con il team di Luigi Naldini.

"Il nostro modello cellulare sono le staminali

del sangue. Con il protocollo che abbiamo

ottimizzato non riscontriamo instabilità genomica

né mutazioni indesiderate.

Il cocktail che abbiamo messo a punto dovrebbe

già garantire un beneficio terapeutico nel campo

delle malattie rare.

Perciò il prossimo passo sarà vedere la risposta

nell'uomo", ci ha detto la ricercatrice commentando

con noi gli ultimi dati.

Il banco di prova saranno le immunodeficienze

su cui l'SR-Tiget non ha rivali al mondo, essendo

già riuscito nell'impresa di portare in commercio

la prima terapia genica classica: il trattamento

Strimvelis, sviluppato nell'era pre-CRISPR per i

pazienti affetti da ADA-SCID.

Nel frattempo altri gruppi hanno incontrato

difficoltà a replicare quel successo di terapia genica

"tradizionale" su un altro tipo di immunodeficienza

severa combinata, trasmissibile con il cromosoma X

e detta SCID-X1.

ia Telethon)"Rispetto all'approccio precedente,

l'editing ha il grosso vantaggio di garantire

un'espressione più controllata del gene terapeutico.

La migliore precisione dovrebbe consentire di

correggere il difetto genetico con maggiore efficacia

e sicurezza", sostiene Di Micco. In cima alla lista

delle malattie candidate, dunque, c'è la SCID-X1,

in compagnia di un'altra immunodeficienza:

la sindrome da iper-IgM.

"Comunque il lavoro che abbiamo pubblicato è una

dimostrazione di fattibilità, lo stesso approccio può

trovare altre applicazioni".

Di Micco, classe 1980, si è laureata in biotecnologie

mediche a Napoli, per poi specializzarsi tra Milano

e New York, e da tre anni è stata chiamata

all'istituto diretto dal

pioniere della terapia genica Naldini, con la

missione di studiare come le cellule rispondono

al danno del DNA e contribuire allo sviluppo di

nuove terapie avanzate.

Lavorando insieme, hanno dimostrato di poter

inserire in modo affidabile una sequenza correttiva

nelle cellule staminali ematopoietiche.

La  ricetta di San Raffaele e Telethon prevede

l'utilizzo di una scarica elettrica per far entrare

nelle cellule tre ingredienti terapeutici: la piattaforma

per l'editing genomico (costituita dall'enzima che

taglia il DNA, opportunamente programmato

per trovare il giusto bersaglio), un vettore virale

detto AAV6 che trasporta la sequenza da introdurre

in corrispondenza del taglio e, a parte, un terzo

elemento opzionale.

Si tratta di un trascritto con le istruzioni per

sintetizzare una molecola che destabilizza la

proteina p53, nota anche come "il guardiano

del genoma".

In questo modo Di Micco e colleghi hanno

aggirato un ostacolo emerso lo scorso anno

 in popolazioni cellulari diverse e descritto da

due gruppi indipendenti su "Nature Medicine".

Quando l'editing produce la rottura del DNA,

le cellule attivano un kit di pronto intervento

che vede come protagonista il p53 e può

avviare le cellule editate alla distruzione.

Per fortuna i ricercatori dell'SR-Tiget hanno

appurato che, almeno per le staminali emato-

poietiche, il problema è limitato e risolvibile.

La ricetta Telethon per l'editing geneticoiStock/LoveSilhouette)
"Anche nel nostro modello basta un singolo

taglio per far scattare l'allarme, ma la risposta

si risolve nel giro di poche ore quando la lesione

viene riparata e alla fine le cellule conservano la

piena funzionalità", assicura la ricercatrice.

Se oltre a tagliare il DNA si fornisce una sequenza

correttiva, utilizzando un vettore virale, la reazione

difensiva è più forte, ma l'SR-Tiget ha dimostrato

di poterla controllare inibendo il p53.

Nel giro di un giorno o due l'arresto proliferativo

si sblocca e, trapiantando le cellule editate nel topo,

si osserva che un maggior numero di cellule corrette

si localizza nel midollo, per la ricostituzione del

sistema ematopoietico.

"Il sistema CRISPR è più facile da programmare

rispetto alla tecnica di editing genomico precedente,

ma nel nostro modello funziona bene anche la

piattaforma zinc finger, che ha il vantaggio di essere

stata studiata più a lungo", spiega Di Micco.

Da quando CRISPR è arrivata sulla scena ha

conquistato tutti i riflettori per la sua versatilità,

mentre il metodo delle "dita di zinco" è rimasto

nell'ombra pur non essendo obsoleto.

"Con questo lavoro abbiamo dimostrato che

i risultati delle due tecnologie sono paragonabili,

ciò che conta è la specificità dell'enzima che

effettua il taglio, indipendentemente da quale

piattaforma viene utilizzata", sostiene la ricercatrice.

Scegliere l'una o l'altra sarà una decisione

strategica, da prendere insieme agli sponsor

dei trial clinici futuri, valutando anche gli aspetti

di natura brevettuale. Intanto ci sono altre

sperimentazioni di editing in cellule staminali

ematopoietiche che stanno già reclutando i

primi pazienti in diversi paesi del mondo:

il database clinicaltrials.gov ne conta già tre

con zinc finger e due basate su CRISPR.


(L'originale di questo articolo è stato pubblicato

 nel blog CRISPerMANIA il 27 marzo 2019.

Riproduzione autorizzata, tutti i diritti

riservati.)

 
 
 

I fiumi di Marte non sono così antichi

Post n°2160 pubblicato il 29 Aprile 2019 da blogtecaolivelli

28 marzo 2019

I fiumi di Marte non sono così antichi

I fiumi di Marte non sono così antichi

La superficie di Marte è solcata dai letti di

antichi fiumi, che furono numerosi ed ebbero

una notevole portata fino a meno di un

miliardo di anni fa, cioè fino a un'epoca

più recente di quanto stimato finora.

Lo rivela un nuovo studio basato sui modelli

di elevazione della superficie del Pianeta

Rosso, che solleva nuove questioni sulla

sua storia idrogeologica

planetologia

Marte è un pianeta desertico.

Ma ci fu un tempo in cui la sua superficie

era solcata da fiumi, la cui portata era

maggiore di quella degli attuali corsi d'acqua

sulla Terra.

Ora un gruppo di ricercatori statunitensi

guidati da Edwin Kite ha realizzato un modello,

 descritto su "Science Advances", di come

doveva apparire la struttura orografica del

Pianeta Rosso nel suo antico passato,

stabilendo che in centinaia di regioni marziane

esistevano dei fiumi quasi certamente fino a

3 miliardi di anni fa e probabilmente fino a

meno di un miliardo di anni fa.

La scoperta indicherebbe che il processo di

desertificazione di Marte è avvenuto molto

più di recente rispetto a quanto stimato finora.

I fiumi di Marte non sono così antichi

Immagine in falsi colori della superficie di Marte

solcata dal letto di un atico fiume: in giallo, le

parti più elevate, in blu quelle meno elevate

(Credit: NASA/JPL/Univ. Arizona/UChicago)

Ricostruire l'antico aspetto di Marte è un po'

ome intuire l'immagine complessiva di un puzzle

a partire da poche tessere.

Il rompicapo più impegnativo, ma anche uno dei

più affascinanti, riguarda la presenza di acqua

liquida, strettamente connessa al clima.

L'atmosfera del pianeta è molto rarefatta e la

sua superficie iniziò presto a ricevere meno di

un terzo della radiazione solare che raggiunge

oggi la Terra.

Ciò significa che il calore sufficiente a mantenere

l'acqua liquida non è durato molto: la maggior

parte delle prove scientifiche indica che, per

gran parte della sua storia, il pianeta è stato

estremamente freddo e arido.

Esistono però prove della presenza di antichi

fiumi di Marte: sono le fotografie catturate dalle

diverse missioni che hanno orbitato intorno al

pianeta e quelle del Rover Curiosity, che ne ha

raggiunto la superficie nel 2012.

Queste immagini mostrano moltissime tracce

di fiumi prosciugati, da cui sono stati ricavati

centinaia di modelli di elevazione, cioè

rappresentazioni digitali della distribuzione

delle quote della superficie.

A partire dalle caratteristiche dimensionali

dei letti, come larghezza e pendenza, e dei

ciottoli che vi sono depositati, Kite e colleghi

hanno calcolato per ognuna di queste formazion

i geologiche la quantità d'acqua che li ha percorsi.

I risultati indicano l'esistenza di fiumi di notevole

portata fino all'ultima fase del clima umido di

Marte.

"Ci si aspetterebbe un processo diverso, più

graduale; invece l'analisi di ciò che rimane dei

letti testimonia un accorciamento dei fiumi da

migliaia a centinaia di chilometri, ma la persistenza

di una portata ancora notevole", ha spiegato Kite.

"In altre parole, il giorno più umido dell'anno era

ancora molto molto umido".

È possibile dunque che ci siano stati periodi di

alternanza di clima secco e clima umido, invece

che un lento e graduale passaggio dall'umido

al secco.

Questa alternanza ha caratterizzato l'intera

superficie del pianeta e fino a meno di un miliardo

di anni fa.

I nuovi risultati, sottolineano i ricercatori,

complicano ancora di più la ricostruzione della

storia idrogeologica di Marte, perché non sono

coerenti, per esempio, con l'ipotesi che l'atmosfera

marziana si sia rarefatta molto prima di un miliardo

di anni fa.

"Il nostro lavoro risponde ad alcuni interrogativi

attuali, ma ne solleva di nuovi", ha concluso Kite.

"Che cosa c'è di sbagliato? I modelli climatici, i

modelli di evoluzione dell'atmosfera o la nostra

comprensione di base della cronologia del sistema

solare interno?". (red)

 
 
 

Quel segnale di materia oscura che non si riesce a replicare

Post n°2159 pubblicato il 29 Aprile 2019 da blogtecaolivelli

fonte: Le Scienze

25 marzo 2019

I ricercatori dell'esperimento DAMA ai Laboratori

del Gran Sasso affermano da tempo di aver

rilevato segnali di materia oscura, la massa

mancante del cosmo che scienziati in tutto il

mondo tentano di identificare.

Ma due esperimenti fotocopia di DAMA non sono

stati in grado di replicarne i risultatidi Davide

Castelvecchi/Nature

materia oscurafisica delle particelle

Per più di due decenni, un solo esperimento al

mondo ha costantemente riferito di aver rilevato

un segnale di materia oscura, la massa mancante

dell'universo che i fisici cercano da tempo di

identificare.

Ora, due esperimenti progettati per replicare

i risultati usando la stessa tecnologia di rilevazione

hanno presentato i loro primi dati.

Una risposta definitiva rimane elusiva: anche se i

dati iniziali di un esperimento sembrano essere

compatibili con i risultati originali, i risultati dell'altro

rivelatore vanno in direzione opposta.

Ma gli scienziati dicono che grazie a questi

esperimenti e ad altri che, secondo i programmi,

saranno presto attivi, una risposta definitiva sulla

natura del segnale misterioso è ora a portata di

mano.

Quel segnale di materia oscura che non si riesce a replicare

Il profilo della Via Lattea ripreso dalla Terra.

(CC0 Public Domain)"Non c'è davvero alcuna

conclusione da trarre a questo punto, se non

il crescere della suspense", dice Juan Collar,

fisico dell'Università di Chicago, che ha lavorato

a diversi esperimenti sulla materia oscura.

"Ma gli strumenti sembrano avere una sensibilità

sufficiente per dare al più presto risultati conclusivi",

afferma Collar.

Interazioni ordinarie
Le osservazioni di come ruotano le galassie e

del fondo cosmico a microonde - il "bagliore residuo"

del big bang - suggeriscono che la maggior parte

della materia nell'universo è invisibile.

Questa materia "oscura" mostrerebbe la sua presenza

quasi esclusivamente tramite le interazioni

gravitazionali con altri oggetti, ma una serie di

esperimenti ha cercato per decenni di raccogliere

i segni delle sue altre interazioni con la materia

ordinaria.

Dal 1998, il rilevatore sotterraneo DAMA presso

il Laboratorio nazionale del Gran Sasso dell'Istituto

nazionale di fisica nucleare e il suo successore

DAMA/LIBRA hanno registrato una variazione

stagionale nei dati.

Il rivelatore registra lampi di luce creati quando

le particelle collidono con i nuclei atomici in un

cristallo di ioduro di sodio altamente purificato.

Questi lampi potrebbero essere segnali di materia

oscura o di radiazione di fondo vagante - ma i

fisici dell'esperimento affermano che la variazione

stagionale si verifica perché la Terra si muove

attraverso un alone di particelle di materia oscura

che circonda la Via Lattea, determinando uno

schema ripetitivo.

Nel marzo 2018, la collaborazione DAMA ha

presentato i primi risultati del rivelatore dopo che

è stato aggiornato nel 2010.

La firma della materia oscura sembrava essere

ancora lì.

Nel corso degli anni, diversi esperimenti con varie

tecniche hanno prodotto risultati apparentemente

in contraddizione con DAMA. Ma COSINE-100 e

ANAIS sono i primi progetti attivi che mirano a

testare le affermazioni di DAMA usando gli stessi

materiali, ed entrambi sono operativi da più di un

anno.

ANAIS nel Laboratorio sotterraneo Canfranc nei

Pirenei, in Spagna, ha riferito i suoi primi risultati

 l'11 marzo.

Sulla base di 18 mesi di dati, i risultati sembrano

essere in disaccordo con quelli di DAMA.

I dati di ANAIS mostrano fluttuazioni, ma non sono

le stesse del ciclo annuale di DAMA, in cui i segnali 

raggiungono il picco all'inizio di giugno e il minimo

all'inizio di dicembre.

Vicini ma non del tutto

Un altro esperimento che usa ioduro di sodio

chiamato COSINE-100, sotto una montagna in

Corea del Sud, ha svelato un'analisi simile di a

quella di ANAIS nel corso di conferenze di questo

mese.

Anche questo rivelatore vede una fluttuazione nei

suoi dati.

Tuttavia, "la nostra è un po' più vicina a quella

di DAMA", afferma Reina Maruyama, co-coordinatrice

di COSINE-100 e fisica della Yale University.

(I risultati sia di ANAIS sia di COSINE-100 sono ancora

preliminari e non sono stati ancora sottoposti a

peer review).

Quel segnale di materia oscura che non si riesce a replicare

Un momento della preparazione del rivelatore

DAMA/LIBRA presso i Laboratori Nazionali del

Gran Sasso.

(Credit: DAMA-LIBRA Collaboration/LNGS-INFN)

L'analisi di ANAIS non ha "alcun impatto" sui

risultati di DAMA/LIBRA e dei suoi predecessori:

i dati sono già stati confermati in oltre 20 cicli

annuali indipendenti, afferma Rita Bernabei, fisica

dell'Università di Roma Tor Vergata che ha guidato

a lungo la collaborazione DAMA.

Anche se un esperimento dovesse trovare prove

forti contro il risultato di DAMA/LIBRA, per molti

rivelatori sarebbe utile continuare a raccogliere

dati per diversi anni, dice Collar:

"Quando un esperimento sta vedendo una cosa

come questa e un altro no, ci si chiede se qualcuno

ha sbagliato".

I ricercatori concordano sul fatto che saranno

necessari anni di registrazione dei dati da più

esperimenti per sistemare veramente la questione.

"Con qualche anno in più di dati, dovrebbero

essere in grado di fare una dichiarazione

definitiva", spiega David Spergel, il cosmologo

che per primo nel 1986 ha previsto l'oscillazione

stagionale con due colleghi.

La portavoce di ANAIS Marisa Sarsa, che è anche

una fisica dell'Università di Saragozza, in Spagna,

afferma che qualunque sia l'esito finale, il suo

esperimento dovrebbe aiutare a spiegare che

cosa ha causato il segnale stagionale al Gran

Sasso. "Ho il desiderio di capire DAMA/LIBRA -

dice - non solo per escludere il risultato".

(L'originale di questo articolo è stato 

pubblicato su "Nature" il 19 marzo 2019.

Traduzione ed editing a cura di Le Scienze.

Riproduzione autorizzata, tutti i diritti

riservati)

 
 
 

La minaccia delle tempeste solari

Post n°2158 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

13 marzo 2019

La minaccia delle tempeste solari

La minaccia delle tempeste solari

L'analisi di carote di ghiaccio prelevate in

Groenlandia ha documentato la presenza

di isotopi radioattivi prodotti da una

tempesta solare di eccezionale intensità

avvenuta nel 660 a.C. e ha confermato

anche altri due eventi analoghi nel 775 e

nel 994 d.C.

Lo studio quindi suggerisce che i rischi per

le attività umane di questo tipo di eventi

potrebbero essere sottostimati

astrofisica

Il nostro pianeta è investito periodicamente

da tempeste solari costituite da fasci di particelle

elementari ad alta energia, in particolare protoni,

prodotte da enormi esplosioni che si verificano

sulla superficie del Sole.

Si tratta di eventi temibili per i danni che possono

portare alla distribuzione della corrente elettrica,

alle comunicazioni, alle trasmissioni via i satellite,

nonché ai sistemi di controllo del traffico aereo.

La minaccia delle tempeste solari

llustrazione dell'interazione tra le particelle

cariche prodotte dal Sole e la Terra, protetta

dalla suo campo magnetico, evidenziato in viola

(Credit: NASA)Ma le tempeste solari di cui noi

esseri umani siamo stati testimoni negli ultimi

decenni, da quando cioè sono disponibili strumenti

adatti alla loro rilevazione, potrebbe impallidire

in confronto a ciò che avvenne in un lontano

passato.

A raccontarlo sono le carote di ghiaccio estratte

in Groenlandia da un gruppo di ricercatori della

Lund University che firmano un articolo sui

"Proceedings of the National Academy of Sciences".

L'analisi di quei campioni, che rappresentano una

sorta di registro storico delle tempeste solari fino

a circa 100.000 anni fa circa, mostra un antico

evento estremamente intenso avvenuto nel Settimo

secolo prima di Cristo, e di cui si ha notizia per la

prima volta, e conferma altri due eventi di rilievo,

che si sono verificati nel 775 e nel 994 d.C., ed erano

stati già evidenziati da passati studi sugli anelli di

accrescimento degli alberi plurisecolari.

Per stimare frequenze e intensità degli antichi

eventi, gli autori hanno misurato in particolare

l'abbondanza di tre isotopi radioattivi: il carbonio

14, il berillio 10 e il cloro 36.

Questi isotopi sono prodotti principalmente da una

cascata di reazioni che si verificano negli strati più

alti dell'atmosfera quando sono investiti da flussi

molto energetici di protoni che provengono dal Sole.

Una volta mescolatisi con l'aria, questi isotopi

radioattivi si fissano nei "registri ambientali", come

appunto il ghiaccio, che nelle regioni artiche si può

conservare per centinaia di migliaia di anni.

I segnali relativi agli isotopi radioattivi considerati

hanno indicato un rapido incremento in corrispondenza

di strati sedimentatisi nel 660 a.C. e che non può

essere spiegato con la normale modulazione

dell'attività solare.

"Se si verificasse ai giorni nostri, un evento di

quella portata metterebbe a serio rischio la nostra

civiltà ad alta tecnologia", ha commentato Raimund

Muscheler, professore di geologia della Lund

University e coautore dell'articolo.

"La nostra ricerca indica che i rischi sono attualmente

sottostimati; ecco perché sarebbe il caso di aumentare

in via precauzionale le nostre difese nei confronti

delle tempeste solari: dobbiamo essere preparati

meglio".

Complessivamente, lo studio mostra che le analisi

al carbonio 14 sono inadeguate per ottenere stime

affidabili della frequenza e delle proprietà delle

tempeste solari passate, ma possono essere

proficuamente associate alle analisi basate sul

berillio 10 e sul cloro 36. (red)

 
 
 

Perché le ere glaciali sono diventate più lunghe

Post n°2157 pubblicato il 29 Aprile 2019 da blogtecaolivelli

fonte: Le Scienze

08 marzo 2019

Perché le ere glaciali sono diventate più lunghe

Perché le ere glaciali sono diventate più lunghe

Circa un milione di anni fa, la durata

delle ere glaciali si allungò moltissimo,

passando da una media di 41.000 anni

a quasi 100.000 anni.

All'origine di questa drammatica estensione

ci fu un rallentamento della circolazione

oceanica nelle acque che circondano

l'Antartide

climascienze della terra

Fu un rallentamento della circolazione

oceanica nelle acque della regione antartica,

circa un milione di anni fa, a rendere le ere

glaciali molto più rigide e lunghe.

A scoprirlo è stato un gruppo internazionale

di ricercatori diretti da Adam P. Hasenfratz,

del Politecnico di Zurigo, che firmano 

un articolo su "Science".

Negli ultimi milioni di anni, il ciclo naturale

del clima terrestre è stato dominato dal

regolare alternarsi di periodi glaciali e

interglaciali, legati alle oscillazioni dell'orbita

ellittica della Terra attorno al Sole e alle

conseguenti variazioni nell'intensità della

radiazione solare che raggiunge il pianeta.

Tuttavia, fra 1,25 milioni e 700.000 anni fa

circa, i periodi glaciali sono diventati ancora

più rigidi e sono più che raddoppiati, passando

da una durata media di circa 41.000 anni a

quasi 100.000 anni.

Perché le ere glaciali sono diventate più lunghe

Simulazione delle correnti oceaniche

attorno all'Antartide. (© Science Photo Library / AGF)

Per questo drastico cambiamento - noto come

transizione del Pleistocene medio - non è stato

possibile individuare alcun indizio di una causa

astronomica, un enigma complicato dall'assenza

di dati paleoclimatici abbastabza dettagliati per

caratterizzare con precisione la transizione.

Grazie ad alcuni carotaggi dei fondali marini

attorno all'Antartide eseguiti nel quadro

dell'Ocean Drilling Project, Hasenfratz e colleghi

hanno ora colmate in parte questa lacuna

ricostruendo le variazioni di temperatura e

salinità nell'oceano Australe durante gli ultimi

1,5 milioni di anni.

A questo scopo hanno analizzato le concentrazioni

di oligoelementi e isotopi dell'ossigeno inglobati

all'interno dei microscopici gusci di foraminiferi

presenti nei carotaggi dei sedimenti, che permettono

di risalire alle dinamiche di trasporto di calore,

nutrienti e carbonio delle acque in ciascun periodo.

L'analisi dei dati ha suggerito che durante la

transizione del Pleistocene medio è avvenuto

un progressivo aumento della salinità in

profondità e una parallela stabilizzazione degli

strati delle acque, con un indebolimento della

risalita delle acque profonde ricche di nutrienti

e di carbonio, tratti tipici di un indebolimento

delle correnti oceaniche.

Il mancato rimescolamento delle acque ha

ridotto il passaggio della CO2dall'oceano

Australe all'atmosfera, che secondo le stime

degli autori sarebbe diminuita di circa 40

parti per milione, con un indebolimento

dell'effetto serra di questo gas e un

abbassamento delle temperature globali.

L'effetto di questi cambiamenti sulla circolazione

atmosferica avrebbe poi causato un'ulteriore

indebolimento delle correnti marine.

Sarebbe dunque questo meccanismo di

 

retroazione positiva ad aver provocato l'eccezionale

prolungamento delle ere glaciali. (red)

 
 
 

Le ultime novità della scienza

Post n°2156 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

Un gruppo di ricerca ha ingegnerizzato

una superficie elastica che riproduce alcune

straordinarie caratteristiche della pelle di

polpi e seppie, che può mutare non solo il

colore ma anche la trama tridimensionale,

in modo da riprodurre la scabrosità degli

oggetti usati dall'animale per nascondersi(red)

animalimaterialiroboticaVAI AL VIDEO:

Le papille del polpo non hanno più segreti


Per polpi e seppie mimetizzarsi nell'ambiente

naturale per sfuggire ai predatori è un po' più

facile che per gli altri animali.

Questi molluschi possono infatti cambiare

istantaneamente non solo il colore e la livrea

della pelle ma anche mutarne la struttura

superficiale tridimensionale, in modo da renderla

scabrosa come quella di un corallo o di qualunque

altro oggetto abbiano scelto per nascondersi.

Sulla rivista "Science"  

un gruppo di ricercatori della Cornell University

guidati da James Pikul e Robert Shepherd riferisce

ora di aver ricreato artificialmente le proprietà

della pelle di questi molluschi, realizzando

superfici elastiche con una trama tridimensionale

programmabile.

Un'epidermide artificiale per il mimetismo 3D

Un'immagine eloquente della capacità della

seppia gigante australiana (Sepia apama) di

usare l'estroflessione delle papille per mimetizzarsi

(Credit: Roger Hanlon)La ricerca fa parte del

fertile settore della bioispirazione, cioè dell'insieme

delle tecniche robotiche che cercano di imitare

alcune tra le più sorprendenti capacità degli animali.

L'imitazione dei cefalopodi, in particolare, ha creato

una vera e propria nicchia di studi, producendo

"una piccola rivoluzione nella robotica, svelando

i principi per sviluppare robot soffici, ovvero robot

costruiti con materiali altamente deformabili",

come spiega Cecilia Laschi, della Scuola Sant'Anna

di Pisa, in un articolo di commento apparso sullo

stesso numero di "Science".

"Il materiale più utilizzato in questo campo è il

silicone, che viene controllato in attuatori pneumatici,

cioè in buona sostanza gonfiandoli e sgonfiandoli",

ha continuato Laschi.

"La direzione di moto è controllata da camere di 

forma predeterminata che si deformano in modo

asimmetrico",anche grazie a una struttura di fibre

indeformabili.

Nel caso del prototipo di Pikul e colleghi, "il risultato

è impressionante": si tratta di una pelle morbida e

piatta che può assumere la forma delle rocce o delle

piante circostanti.

E può anche produrre protuberanze sulla sua superficie

per ottenere un mimetismo ancora più efficace.

Il segreto del cambiamento della trama è in piccole

estroflessioni chiamate papille.

Esse sono un esempio di idrostato muscolare, cioè

di una struttura biologica costituita da tessuto

muscolare priva di supporto scheletrico, come

nel caso della lingua.

I molluschi possono estenderle nell'arco di 20

centesimi di secondo per il mimetismo dinamico

e ritrarre per evitare un inutile attrito idrodinamico

quando nuotano.

"Molti animali hanno papille, ma non possono

estenderle e ritrarle istantaneamente come fanno

polpi e seppie", ha spiegato Roger Hanlon, uno

degli autori dello studio.

"Ma per questi cefalopodi è una questione di soprav-

vivenza: non hanno una conchiglia che li protegga,

l'arma di difesa principale è proprio il mimetismo".

"Nella seppia europea, ci sono almeno nove insiemi

di papille controllate dal cervello in modo

indipendente, ciascuna delle quali può passare

da una superficie piatta bidimensionale a una dozzina 

di possibili forme tridimensionali", ha continuato

il ricercatore.

In passato, diversi laboratori del mondo hanno

sviluppato dispositivi per controllare la forma di

materiali elastici, ma quest'ultima realizzazione

dei ricercatori della Cornell ha dalla sua

un'estrema facilità e rapidità di trasformazione.

"Questo è un classico esempio di ingegneria che

trae ispirazione dalla biologia, con molte potenziali

applicazioni", ha concluso Hanlon.

"Per esempio, il materiale potrebbe essere mutato

in modo controllato per riflettere la luce nella sua

conformazione bidimensionale e assorbirla in

quella tridimensionale: potrebbe perciò trovare

applicazione in tutte le situazioni in cui occorra

manipolare la temperatura di un materiale".

 
 
 

Quando il robot mostra i muscoli

Post n°2155 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze
31 maggio 2018

Quando il robot mostra i muscoli

Quando il robot mostra i muscoli(Credit: Copyright 2018 University of Tokyo)  

Successo di una sperimentazione di robot

bioibridi che integrano muscoli biologici

ancorati a un scheletro artificiale in modo

da formare coppie di elementi antagonisti

tra loro, come avviene negli esseri umani.

Il dispositivo è stato in grado di spostare

piccoli oggetti con una sorta di dito che si

flette a 90°(red)

roboticaVAI AL VIDEO: Dita bioibride in azione

L'immaginario dei racconti e dei film di

fantascienza è affollato da robot, fatti di metallo

e plastica, e da cyborg, del tutto uguali agli

esseri umani, anche nell'essere realizzati con

tessuti biologici.

Un nuovo campo della robotica sta ora aprendo

la strada a una via di mezzo tra i due: i robot

bioibridi. 

Si tratta sostanzialmente di robot che integrano

tessuti viventi, per esempio i muscoli, ritenuti

essenziali per il movimento.

Quando il robot mostra i muscoliDimostrazione delle possibilità di movimento

di un dito articolato che integra muscoli biologici.

(Credit: Copyright 2018 University of Tokyo) 

Un grande passo avanti in questo settore è

stato compiuto ora grazie a uno studio 

pubblicato su "Science Robotics" dai ricercatori

dell'Istituto di scienze industriali dell'Università

di Tokyo che hanno sviluppato un nuovo metodo

che permette di sviluppare muscoli scheletrici

per molti aspetti completi e perfettamente

funzionanti a partire dai precursori dalle singole

cellule muscolari, i miociti, immersi in fogli di idrogel.

Questi muscoli sono stati collegati a una serie

di elettrodi e ancorati allo "scheletro" di minuscoli

bracci robotici, in modo che formassero coppie di

elementi tra loro antagonisti; proprio come avviene

per i muscoli scheletrici del corpo degli esseri

umani e degli altri animali, in cui la flessione di un

arto è governata dalla contrazione di un muscolo

e dall'estensione del suo antagonista, mentre per

l'estensione avviene l'inverso.

L'esito finale dell'innesto è una protuberanza,

simile a un dito, in grado di flettersi di 90° che

ha dimostrato una funzionalità muscolare continuata

per oltre una settimana e una notevole capacità di 

movimento.

"La contrazione di un muscolo associata

all'estensione del suo antagonista permette di avere

forze tra loro opposte: proprio questo ha impedito che

 i muscoli implodessero e si deteriorassero in breve

tempo, come è avvenuto negli studi precedenti", 

ha spiegato Shoji Takeuchi, coautore dello studio.

Il gruppo ha verificato la funzionalità dei piccoli

robot bioibridi in diverse operazioni: singolarmente,

hanno dimostrato di poter afferrare un anello per

poi posizionarlo in una certa posizione e, a coppie,

hanno mostrato di poter essere coordinate per

spostare una cornice quadrata.

"I nostri risultati mostrano che, usando la

disposizione antagonista dei muscoli, questi robot

possono imitare le azioni di un dito umano", ha

concluso Yuya Morimoto, autore principale dello studio.

"Se potessimo combinare diversi di questi muscoli

in un singolo dispositivo, dovremmo essere in grado

di riprodurre la complessa interazione muscolare

che permette di funzionare alle mani, alle braccia e

ad altre parti del corpo".

 
 
 

L'esercito dei minirobot

Post n°2154 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

01/12/2003

L'esercito dei minirobot

Comunicato stampa

- R1 "Your Personal Humanoid" (l'umanoide personale)

ha design italiano, 50% in plastica, alto 1,25 m, peso

50kg, costerà inizialmente come una piccola

automobile e in futuro, come prodotto sul mercato,

poche migliaia di euro.

Nei prossimi 12-18 mesi sarà implementato il

modello di produzione e commercializzazione su

larga scala con il coinvolgimento di investitori privati

roboticatecnologia

Genova, 19 luglio 2016 - É nato R1 - "Your Personal

Humanoid" - il nuovo umanoide nell'ecosistema robotico

dell'IIT- Istituto Italiano di Tecnologia.

Design italiano, altezza variabile di 20 cm a partire da

1 metro e 25 cm, peso di 50 kg, 50% in plastica e 50%

fibra di carbonio e metallo, è concepito per operare in

ambienti domestici e professionali. IIT, con il

coinvolgimento di investitori privati, realizzerà nei

prossimi 12-18 mesi il modello di produzione e

commercializzazione su larga scala.

R1 -"Your Personal Humanoid" è stato realizzato,

partendo dall'esperienza maturata da IIT su iCub,

il robot umanoide per la ricerca più diffuso al mondo.

R1 è anch'esso umanoide e ha elementi di unicità:

 è progettato studiando le reazioni umane durante

l'interazione con lui. 

Si tratta di un lavoro in collaborazione con designers,

creativi e neuroscienziati per capire quali aspetti

della forma e movimento del robot lo fanno sembrare

più "umano";

la sua Intelligenza Artificiale (IA) è studiata e

sviluppata direttamente sull'umanoide.

La maggior parte degli studi sull'IA sono condotti

indipendentemente dall'esistenza di un corpo robotico,

mentre, al contrario, gli ultimi studi sulle neuroscienze

dicono che l'intelligenza si sviluppa in maniera funzionale

al corpo che la ospita;

ha un corpo di nuova concezione, in cui sono utilizzati

attualmente per il 50% della struttura materiali plastici.

Le versioni future incorporeranno materiali intelligenti

come quelli basati su grafene, o biodegradabili, sensori

sempre più sofisticati, batterie più efficienti e circuiti

incorporati nella struttura stessa del robot.


R1 è stato realizzato in soli 16 mesi grazie alla

collaborazione di una squadra di 22 scienziati e tecnici

di IIT guidati da Giorgio Metta, alcuni progettisti i

ndustriali dell'area genovese, e un gruppo di industrial

& graphic designer, esperti di entertainment e

illustratori proveniente da due diverse realtà creative:

una di Milano che ha coordinato lo sviluppo del

concept creativo, l'individuazione degli scenari di

interazione e mercato coordinata da Andrea Pagnin

e Luigi Focanti per 6.14 Creative Licensing, e l'altra

di Barcellona coordinata da Pierpaolo Congiu di 

Drop Innovation, che ha collaborato con la realtà

milanese per la realizzazione del design delle

superfici dell'umanoide.

L'altezza di R1 è variabile, il suo corpo si estende

da 125 a 140cm grazie a un busto allungabile.

Similmente, le sue braccia si possono estendere di

13cm in avanti, per raggiungere oggetti lontani.

Il torso, oltre a muoversi in alto e in basso, può

anche torcere lateralmente.

Il movimento in autonomia è garantito da una

batteria per circa 3 ore; quando si scarica, basta

collegarlo alla presa elettrica di casa tramite un

alimentatore, proprio come qualsiasi elettrodomestico.

R1 riesce a muoversi negli ambienti grazie a ruote

con cui raggiunge una velocità di 2 km/h, valore

che i progettisti hanno determinato come limite di

sicurezza.

Il volto è costituito da uno schermo LED a colori,

le cui facce stilizzate danno al robot le espressioni

utili alla comunicazione non verbale con l'uomo.

Brevettato da IIT, lo schermo è pensato per avere

un costo basso, e ospita i sensori per la visione:

2 telecamere stereo e 1 scanner 3D; quelli per

l'equilibrio: 1 accelerometro e 1 giroscopio; e quelli

per la generazione e percezione del suono:

altoparlanti e 1 microfono.

Nella pancia alloggiano, inoltre, i 3 computer che

governano le capacità del robot, dal calcolo al

movimento della testa e al controllo dei sensori.

Una scheda wireless permette al robot di collegarsi

alla rete internet, ricavando informazioni utili alla

sua interazione con l'uomo o aggiornamenti del

suo software.

Il software, infatti, ha parti Open Source in modo

da beneficiare della collaborazione della community

che già opera intorno alla robotica umanoide di IIT.

Le mani e gli avambracci del robot sono ricoperti

di una pelle artificiale, ovvero di un sensore che

conferisce al robot il senso del tatto, permettendogli

di "sentire" l'interazione con gli oggetti che manipola.

Il disegno delle mani del robot è stato semplificato

rispetto a quello del robot iCub, per garantire

robustezza e costi contenuti pur consentendo

l'esecuzione di semplici operazioni domestiche.

Hanno la forma di due guanti a monopola (muffola),

con un polso sferico, grazie a cui il robot può sollevare

pesi fino a 1,5kg e chiudere completamente la presa

attorno ad oggetti cilindrici come bottigliette e bicchieri.

Per rispondere agli standard di sicurezza, tutti i motori

e giunti di R1 sono dotati di una sorta di "frizione" che

controlla il movimento del robot, attenuandolo, durante

gli urti.

I motori totali sono 28: 2 per la testa e collo, 4 per

il torso, 8 per ciascun braccio, 2 per ciascuna mano,

1 per ciascuna delle 2 ruote.

 
 
 

Un robot che uccide è ancora un semplice strumento?

Post n°2153 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

16 luglio 2016

Un robot che uccide è ancora un

semplice strumento?

Un robot che uccide è ancora un semplice strumento?

La notizia che lo scorso 7 luglio la polizia di

Dallas si è servita di un robot per eliminare

un cecchino ha fatto molto discutere.

Secondo gli esperti, tuttavia, questo uso

degli automi non è una novità e non prefigura

scenari fantascientifici di poliziotti-robot che

agiscono in modo indipendentedi Karl J. P. Smith

eticaroboticasocietàarmamenti

E' stato un robot che trasportava un ordigno

esplosivo a uccidere il cecchino responsabile

della orribile notte di violenza dello scorso 7

luglio a Dallas, in Texas.

Secondo molti esponenti delle forze dell'ordine

e altri esperti si è trattato della prima volta che

la polizia degli Stati Uniti ha fatto un uso simile

della tecnologia robotica.

Durante una manifestazione di protesta per le

uccisioni per mano della polizia di due afroamericani

in altre città, cinque poliziotti sono stati uccisi e

altri sette sono rimasti feriti, così come due civili.

Micah Johnson, l'uomo sospettato di aver sparato,

è stato ucciso dall'esplosivo trasportato dal robot

e fatto brillare a distanza dopo il fallimento delle

trattative con la polizia.

Ma Toby Walsh, docente di intelligenza artificiale

all'University of the New South Wales, mette in

guardia dal considerare questo uso di un robot

come la scena di un incubo fantascientifico,

perché il robot è stato azionato con un telecomando

da un essere umano.

"Sotto questo aspetto, non ci avvicina ai robot killer

più dei droni Predator telecomandati che volano nei

cieli dell'Iraq, del Pakistan e altrove", ha dichiarato

Walsh. "Nell'azione è ancora molto coinvolto un essere

umano, e questo è positivo."

Un robot che uccide è ancora un semplice strumento?

Un robot simile a quello usato per uccidere il cecchino

a Dallas (Ksp0704/Wikimedia Commons, CC BY-SA 3.0)

Anche altri sono d'accordo.

"Il punto è che [il robot] è uno strumento.

Strumenti con queste funzionalità esistono da molti anni",

dice Red Whittaker, docente di robotica alla Carnegie

Mellon University. "E' controllato a distanza; non c'è

nulla di diverso dal premere un grilletto, lanciare una

granata o qualsiasi altra azione del genere.

Il telecomando è un oggetto che si può acquistare in

qualsiasi negozio di hobbistica."

"Le forze dell'ordine usano robot di questo genere

per la bonifica dagliordigni esplosivi.

E' un tipo di intervento che esiste da decenni", dice

David Klinger, criminologo all'Università del Missouri

a St. Louis. Klinger dice che i robot sono strumenti

versatili, utili non solo se c'è di mezzo una bomba, ma

anche in diverse situazioni in cui è in gioco la vita di

un agente.

Automi come quello di Dallas - che sembra fosse 

un Northrop Grumman Andros F6A o F6B - somigliano

a piccoli carrarmati e sono dotati di armi intercambiabili,

e questo permette funzionalità diverse, fra cui per

esempio l'uso di fucili.

Klinger dice che, per quanto ne sa, questo è il primo

caso in cui la polizia degli Stati Uniti usa un robot dotato

di una carica esplosiva, ma aggiunge di non ritenerlo

un problema.

"La legge non discrimina tra i tipi di sistemi usati per

esercitare una forza letale", dice.

"Se un agente di polizia avesse potuto colpire quell'individuo,

avrebbe potuto usare qualsiasi altro strumento letale

. Negli Stati Uniti abbiamo avuto situazioni in cui gli

agenti di polizia hanno investito delle persone.

Se potete sparare a qualcuno, potete investirlo; sono

a conoscenza di casi in cui gli agenti di polizia hanno

introdotto dispositivi incendiari,... allora perché non

dovremmo poter ricorrere legalmente a un ordigno

esplosivo?"

Un robot che uccide è ancora un semplice strumento?

Un'immagine dei funerali degli agenti uccisi a

Dallas (Stewart F. House / Stringer/Getty Images)

Ron McCarthy, un poliziotto in pensione che ha lavorato

per 13 anni nel comando della squadra S.W.A.T.

(Special Weapons And Tactics) della polizia di

Los Angeles, è d'accordo. "Sono molto utili e

molto pratici, e ce ne sono tantissimi. Usarli in

questo caso? Perfetto.

Quando c'è qualcuno che minaccia di uccidere cittadini

o agenti, non dobbiamo giocare con la loro vita."

Walsh è però più cauto a proposito della velocità con

cui si stanno sviluppando tecnologie come questa, e

teme che un giorno questi robot possano essere

automatizzati, una probabilità eticamente molto più

inquietante.

"E' solo un piccolo passo nella direzione dell'eliminazione

dell'uomo per sostituirlo con un computer", ha commentato.

"Negli ultimi mesi, abbiamo visto il primo test della marina

americana con la sua prima nave completamente autonoma.

Abbiamo assistito alla prima morte causata da un veicolo

completamente autonomo. Si tratta di tecnologie che sono

ormai molto vicine."

(La versione originale di questo articolo è apparsa 

su www.scientificamerican.com l'8 luglio 2016.

Riproduzione autorizzata, tutti i diritti riservati)

 
 
 

Le ultime novità della robotica...

Post n°2152 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

Un gruppo di ricercatori statunitensi ha

realizzato un materiale in grado di emettere

luce anche quando viene deformato: si tratta

di una sorta di pelle artificiale che potrebbe

essere integrata in dispositivi robotici che

cambiano colore in risposta al tono emotivo

della comunicazione con gli umani(red)

roboticamateriali

Una "pelle" elettroluminescente che si può

allungare fino ad assumere sei volte le dimensioni

originali, mantenendo l'emissione di luce: è il

risultato ottenuto da un gruppo di ricercatori

della Cornell University a Ithaca, nello stato di

New York, guidati da Rob Shepherd, in collabora-

zione con il Centro di Micro-Bio Robotica (CMBR)

dell'Istituto italiano di tecnologia (IIT) di Pontedera

(Pisa), dove sono avvenuti i test.

Descritta  sulle pagine della rivista "Science", la

pelle potrebbe trovare applicazione in molti

campi tecnologici, dai dispositivi robotizzati per

l'assistenza sanitaria, ai trasporti e alle tele-

comunicazioni.

Il nuovo dispositivo, chiamato HLEC (hyper-elastic

light-emitting capacitor,condensatore iperelastico

a emissione di luce), è stato ottenuto accoppiando

strati di elettrodi di idrogel trasparente, il materiale

conduttore, a fogli di elastomeri isolanti che sono

in grado di cambiare la loro luminanza - cioè

l'intensità di luce che possono emettere per unità di

superficie - e capacità, cioè l'abilità di conservare la

carica elettrica al loro interno quando vengono

deformati. Queste caratteristiche fanno sì che la

luce prodotta in risposta all'applicazione di un

campo elettrico da una matrice siliconica associata

a polveri di fosforo semiconduttore abbia diversa

intensità al variare della deformazione.

Una pelle luminosa per le reazioni emotive dei robot

Un'immagine della pelle elettroluminescente

mentre subisce una deformazione (Credit: Science,

Organic Robotics Lab at Cornell University)"Questo

materiale potrebbe essere sfruttato per realizzare

robot che cambiano colore" ha spiegato Shepherd.

"Il perché di questo obiettivo si comprende

considerando che, per quanto è possibile prevedere,

i robot entreranno sempre di più a far parte delle

nostre vite ed è importante che possano avere una

connessione emotiva con noi: l'idea è che possano

cambiare il loro colore in risposta al tono emotivo

dell'ambiente in cui si trovano".

Gli autori hanno già verificato la possibilità

d'integrare il dispositivo in un sistema robotico.

Tre pannelli a sei strati sono stati collegati per

formare un robot soffice in grado di muoversi

lentamente: i quattro strati più in alto formano

la pelle luminosa e i due più in basso gli attuatori

pneumatici.

Grazie a una serie di camere che possono essere

alternativamente gonfiate e sgonfiate, il dispositivo

può cambiare la sua curvatura, creando ondulazioni

che possono produrre un moto simile a una camminata.

 
 
 

L'hard disk diventa atomico

Post n°2151 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze
13 marzo 2017

L'hard disk diventa atomico

L'hard disk diventa atomico

Un gruppo di scienziati ha ottenuto un

magnete stabile costituito da un singolo atomo.

L'obiettivo finale, ancora lontano, è realizzare

dischi rigidi a scala atomica, in grado di aumentare

di migliaia di volte la densità di immagazzinamento

dei dati rispetto alle prestazioni degli hard disk

attualidi Elisabeth Gibney/Nature

computer sciencefisica

Spaccate un magnete in due: avrete due magneti

più piccoli.

Tagliateli ancora in due, e ne otterrete quattro.

Ma più i magneti diventano piccoli, più sono instabili:

i loro campi magnetici tendono a invertire le polarità

da un momento all'altro.

Ora, però, i fisici sono riusciti a creare un magnete

stabile da un singolo atomo.

Il gruppo, che ha pubblicato il 

proprio lavoro su Nature l'8 marzo scorso, ha usato i

suoi magneti a singolo atomo per realizzare un hard

disk su scala atomica. Il dispositivo riscrivibile, formato

da due di questi magneti, è in grado di memorizzare

solo due bit di dati, ma se portato a grande scala

potrebbe aumentare di 1000 volte la densità di immagaz-

zinamento dei dati di un hard disk, spiega Fabian

Natterer, fisico dell'École polytechnique fédérale

de Lausanne ( EPFL), in Svizzera, autore dell'articolo.

"È una pietra miliare", commenta Sander Otte,

fisico della Delft University of Technology, nei Paesi Bassi.

"Finalmente, è stata dimostrata in modo indiscutibile la

stabilità magnetica in un singolo atomo".

L'hard disk diventa atomico

Credit: Tessi Alfredo/AGFAll'interno di un normale hard

disk c'è un disco diviso in aree magnetizzate, ciascuna

simile a una piccola barretta magnetica; i campi delle

aree magnetizzate possono puntare verso l'alto o

verso il basso.

Ciascuna direzione rappresenta un 1 o uno 0, un'unità

di dati nota come bit. Più sono piccole le aree magnetiz-

zate, più densamente possono essere memorizzati i dati.

Ma le regioni magnetizzate devono essere stabili, in

modo che gli 1 e gli 0 all'interno del disco rigido non

cambino accidentalmente.

Gli attuali bit commerciali sono costituiti da circa un

milione di atomi.

Ma in esperimenti i fisici hanno ridotto radicalmente

il numero di atomi necessari per memorizzare un bit,

passando dai 12 atomi del 2012 a un unico atomo ora.

Natterer e il suo gruppo hanno usato atomi di olmio,

un metallo delle terre rare, posto su un foglio di

ossido di magnesio e mantenuto a una temperatura

inferiore a cinque kelvin.

L'olmio è particolarmente adatto allo stoccaggio a

singolo atomo perché ha molti elettroni spaiati che

creano un forte campo magnetico, e questi elettroni

si trovano in un'orbita vicina al centro dell'atomo dove

sono schermati dall'ambiente.

Questo conferisce all'olmio un campo intenso e stabile,

dice Natterer. Ma la schermatura ha un inconveniente:

rende l'olmio notoriamente un elemento con cui è

difficile interagire.

E finora molti fisici dubitavano che fosse possibile

determinare in modo affidabile lo stato dell'atomo.

Bit di dati
Per scrivere i dati su un singolo atomo di olmio, il

gruppo ha usato un impulso di corrente elettrica da

una punta magnetizzata di un microscopio a effetto

tunnel, che può invertire l'orientamento del campo

dell'atomo tra uno 0 e un 1.

Nei test, i magneti si sono dimostrati stabili: ciascuno

ha conservato i propri dati per diverse ore e il gruppo

non ha mai osservato una inversione involontaria.

I ricercatori hanno usato lo stesso microscopio per

leggere il bit, con diversi flussi di corrente per rilevare

lo stato magnetico dell'atomo.

Per dimostrare ulteriormente che la punta avrebbe

potuto leggere in modo affidabile il bit, il gruppo, che

includeva ricercatori dell'IBM, ha ideato un secondo

metodo di lettura indiretto.

Ha usato un atomo di ferro vicino come un sensore

magnetico, regolandolo in modo che le sue proprietà

elettroniche dipendessero dall'orientamento dei due

magneti atomici di olmio nel sistema a 2 bit.

Il metodo permette al gruppo di leggere anche più bit

 contemporaneamente, dice Otte, rendendolo più pratico

e meno invasivo rispetto alla tecnica microscopica.

L'hard disk diventa atomico

CC0 Public DomainUsare singoli atomi come bit

magnetici aumenterebbe radicalmente la densità

di memorizzazione dei dati;

Natterer riferisce che i suoi colleghi dell'EPFL stanno

lavorando a metodi per realizzare grandi schiere

di magneti a singolo atomo.

Ma il sistema a 2 bit è ancora lontano dalle applicazioni

pratiche e molto in ritardo rispetto a un altro tipo di

archiviazione a singolo atomo, che codifica i dati nelle

posizioni degli atomi, invece che nella loro magnetizzazione,

e ha già costruito un dispositivo di archiviazione dati

riscrivibile da 1-kilobyte (8192-bit).

Un vantaggio del sistema magnetico, tuttavia, è che

potrebbe essere compatibile con la spintronica, dice

Otte.

Questa tecnologia emergente usa stati magnetici non

solo per memorizzare i dati, ma anche per spostare

informazioni in un computer al posto della corrente

elettrica, e renderebbe i sistemi molto più efficienti

dal punto di vista energetico.

Nel breve termine, i fisici sono più entusiasti di studiare

i magneti a singolo atomo.

Natterer, per esempio, prevede di osservare tre mini-

magneti orientati in modo che i loro campi siano in concor-

renza l'uno con l'altro, in modo da invertirsi

continuamente.

"Ora possiamo giocare con questi magneti a singolo

atomo, usandoli come mattoncini Lego per costruire

strutture magnetiche da zero", conclude.

(L'originale di questo articolo è stato

 pubblicato su Nature l'8 marzo 2017. Traduzione ed editing

a cura di Le Scienze. Riproduzione autorizzata, tutti i

diritti riservati.)

 
 
 

Nuovo record per l'entanglement quantistico

Post n°2150 pubblicato il 29 Aprile 2019 da blogtecaolivelli

Fonte: Le Scienze

17 novembre 2016

Nuovo record per l'entanglement quantistico

Nuovo record per l'entanglement quantistico

Un esperimento ha dimostrato per la prima volta

la correlazione quantistica a distanza tra dieci fotoni.

Il risultato, ottenuto con una tecnica sperimentale

innovativa, apre la strada ad applicazioni

nell'informazione quantistica e nel teletrasporto,

ma ancora non basta a rendere competitivi i

computer quantisticidi Matteo Serra

fisicacomputer sciencefisica teorica

Un gruppo di ricercatori coordinati da Xi-Lin Wang,

dell'University of Science and Technology of China

di Hefei, ha dimostrato per la prima volta

l'entanglement quantistico tra dieci fotoni,

migliorando il primato precedente: finora

l'entanglement era stato ottenuto al massimo

tra otto fotoni.

I risultati dell'esperimento sono stati pubblicati

su "Physical Review Letters".

L'entanglement, uno dei fenomeni più affascinanti

e controversi della meccanica quantistica, è una

correlazione che lega particelle a distanza:

quando due particelle sono entangled, una misura

dello stato quantistico dell'una influenza anche

lo stato dell'altra (e viceversa), qualunque sia la

distanza tra le due.

Le possibili applicazioni dell'entanglement sono

molteplici, dalla crittografia al teletrasporto fino

ai computer quantistici (gli elaboratori del futuro

basati sui principi della meccanica quantistica, in

grado di sviluppare una potenza di calcolo

estremamente superiore ai computer classici).

Tuttavia, gli esperimenti che puntano a ottenere 

l'entanglement tra più particelle presentano

ancora importanti limitazioni.

In particolare, l'efficienza dei processi che

producono particelle entangled, e di conseguenza

la quantità stessa di particelle create, è ancora

piuttosto bassa.

Apparato sperimentale per la produzione di

fotoni entangled (Wikimedia Commons)La maggior

parte degli esperimenti di entanglement quantistico

usa fotoni (i quanti di luce).

In questi esperimenti, tipicamente si sfruttano le

proprietà di particolari cristalli, come quelli di borato

di bario: illuminati da un laser, i cristalli convertono

una piccola frazione di fotoni incidenti in una coppia

di fotoni entangled. 

Questi vengono raccolti e messi a loro volta in

entanglement con coppie di fotoni prodotte da altri

cristalli. I fotoni in uscita dai cristalli, però, sono

emessi in direzioni diverse e con polarizzazioni opposte

(la polarizzazione è la direzione di oscillazione del

campo elettromagnetico associato ai fotoni): è questo

fattore che rende l'efficienza di raccolta dei fotoni

abbastanza bassa (attorno al 40 per cento) e limita

il numero totale di fotoni entangled prodotti.


Per migliorare l'efficienza, Wang e colleghi hanno

avuto l'idea di produrre ciascuna coppia di fotoni

entangled tramite un sistema di due cristalli molto

vicini tra loro, separati da un dispositivo ottico in

grado di modificare la polarizzazione dei fotoni prodotti.

Questa configurazione a "sandwich" genera

coppie di fotoni che viaggiano nella stessa direzione

e con la stessa polarizzazione, aumentando

notevolmente l'efficienza di produzione (fino al 70

per cento). Per creare l'entanglement a dieci fotoni,

i ricercatori hanno disposto in fila cinque di queste

strutture a sandwich, illuminandole con un laser a

0,57 watt di potenza e raccogliendo i fotoni prodotti

tramite un altro strumento ottico.

Il risultato ottenuto dai ricercatori cinesi rappresenta

un importante passo avanti soprattutto per le

possibili applicazioni nel settore dell'informazione

quantistica (per esempio nell'elaborazione di codici

per la correzione degli errori casuali nei computer

quantistici) e negli esperimenti sul teletrasporto,

mentre non è ancora sufficiente a rendere i computer

quantistici competitivi con quelli classici.

 
 
 

hhhhhhhhhhhh

Post n°2149 pubblicato il 29 Aprile 2019 da blogtecaolivelli

    17 aprile 2019

    Titano e i suoi profondi laghi di metano

    Titano e i suoi profondi laghi di metano (Credit: NASA/JPL-Caltech/ASI/USGS)

    Nell'emisfero nord del più grande satellite

    di Saturno ci sono numerosi laghi di metano.

    L'analisi dei dati raccolti dagli strumenti dalla

    sonda Cassini durante i 13 anni della sua

    missione mostra che alcuni sono profondi

    fino a 100 metri, mentre altri sono superficiali

    e si prosciugano con il cambio di stagione

    planetologiaastronomia

    Ghiaccio e roccia.

    Così veniva descritta sommariamente la

    superficie di Titano, il più grande dei 62 satelliti

    naturali di Saturno, fino a pochi anni fa.

    Poi lo strumento RADAR montato sulla sonda

    Cassini, frutto della collaborazione tra la NASA,

    l'Agenzia spaziale europea (ESA) e l'Agenzia

    spaziale italiana, nel suo viaggio durato 13

    anni attorno al pianeta degli anelli, ha documentato

    la presenza di centinaia di laghi e tre grandi mari

    di idrocarburi, distribuiti su una superficie di

    700.000 chilometri quadrati nell'emisfero nord

    di Titano.

    Titano e i suoi profondi laghi di metano

    Immagine ripresa dalla sonda Cassini dei laghi

    dell'emisfero nord di Titano.

    (Credit: NASA/JPL-Caltech/ASI/USGS)Questi depositi

    superficiali di idrocarburi - essenzialmente metano,

    ma anche etano in piccole quantità - non evaporano

    perché la temperatura media di Titano è di -180 °C,

    il che fa del satellite l'unico corpo del sistema solare

    oltre alla Terra in cui può esistere stabilmente

    materia allo stato liquido sulla superficie.

    Il modello delineato dai planetologi è che esista un

    vero e proprio ciclo del metano che connette atmosfera,

    superficie e strati sotto la superficie.

    Due articoli pubblicati sulla rivista "Nature Astronomy"

    forniscono ora una completa caratterizzazione dei 

    laghi di Titano, delineando anche un plausibile modello

    della loro storia geologica.

    Il primo articolo, firmato da Marco Mastrogiuseppe,

    del California Institute fo Technology, e colleghi di

    un'ampia collaborazione internazionale di cui fanno

    parte anche ricercatori della "Sapienza" Università

    di Roma e dell'Università "Gabriele D'Annunzio" di

    Pescara, si basa sulle misurazioni effettuate da

    Cassini durante l'ultimo sorvolo di Titano, il 22

    aprile 2017. In particolare, la sonda è passata

    sopra a diversi laghi dell'emisfero nord con un

    diametro variabile tra 10 e 50 chilometri, a una

    quota di poco superiore ai 1000 chilometri.

    Le rilevazioni altimetriche mostrano che questi

    laghi possono superare i 100 metri di profondità.

    La trasparenza al segnale radar, inoltre, è di

    soli 2,17 centimetri, e quindi dimostra che sono

    costituiti principalmente da metano.

    Si tratta quindi di una composizione decisamente

    diversa da quella del lago Ontario, situato

    nell'emisfero sud di Titano, già caratterizzato in

    precedenti studi come costituito da etano.

    Titano e i suoi profondi laghi di metano

    Due immagini di Titano riprese dalla sonda Cassini.

    (NASA/JPL-Caltech/Space Science Institute)

     Questi laghi  dell'emisfero nord si sono formati

    migliaia di anni fa per effetto di piogge di metano

    che hanno disciolto le rocce della superficie.

    I dati registrati da Cassini indicano che probabilmente

    c'è un processo di drenaggio del metano nel suolo,

    che però procede con un tasso più lento del

    riempimento dovuto alle piogge, impedendo

    il prosciugamento dei laghi.

    Nel secondo articolo Shannon MacKenzie della John

    Hopkins University e colleghi di altri istituti di ricerca

    statunitensi e francesi hanno focalizzato l'attenzione

    su formazioni idrogeologiche nella zona dei laghi

    dell'emisfero nord di Titano che durante l'inverno del

    satellite appaiono come  masse liquide, ma si

    asciugano in primavera (la transizione tra queste

    due stagioni dura circa sette anni terrestri).

    Le analisi combinate dei dati di RADAR e di altri

    strumenti montati su Cassini come il Visual and

    Infrared Mapping Spectrometer (VIMS) e l'Imaging

    Science Subystem (ISS), indicano che questi tre

    "laghi fantasma" sono in realtà stagni poco profondi,

    e sono composti quasi totalmente da metano, oppure,

    in alternativa, poggiano su uno strato di terreno

    poroso, che rimuove in modo relativamente rapido

    l'etano, idrocarburo meno volatile del metano.

    Posizione, dimensioni e stagionalità di questi laghi

    forniscono indicazioni importanti sui processi chimico

    -fisici che coinvolgono i sedimenti superficiali di Titano,

    nonché sui suoi fenomeni meteorologici, sull'evoluzione

    del clima e non ultimo sulla sua "abitabilità":

    MacKenzie e colleghi lasciano poche speranze all'ipotesi

    della presenza di forme di vita, considerata la

    trascurabile concentrazione di nutrienti sul suolo del

    satellite. (red)

     
     
     

    Il primo microprocessore bidimensionale

    Post n°2148 pubblicato il 29 Aprile 2019 da blogtecaolivelli

    Fonte: Le Scienze

    13 aprile 2017

    Il primo microprocessore bidimensionale

    Il primo microprocessore bidimensionale

    Per la prima volta è stato realizzato un

    microprocessore basato sui materiali bidimensionali.

    Una dimostrazione del fatto che è possibile creare

    circuiti complessi anche con questo tipo di strutture,

    grazie a cui superare la tecnologia sl silicio(red)

    materialicomputer sciencenanotecnologie

    È costituito da 115 transistor e occupa una

    superficie di 0,6 millimetri quadrati il primo

    microprocessore bidimensionale, realizzato da

    ricercatori del Politecnico di Vienna.

    In particolare, gli scienziati hanno usato una

    pellicola di disolfuro di molibdeno dello spessore

    di soli tre atomi.

    Anche se il nuovo microprocessore ha la capacità

    di eseguire solo programmi semplici, rappresenta

    un progresso tecnologico significativo per il

    passaggio dall'elettronica basata sul silicio alla

    nanoelettronica basata sui materiali bidimensionali.

    La ricerca è descritta in

     un articolo pubblicato su "Nature Communications".

    La tecnologia al silicio finora usata nella

    produzione dei microprocessori si sta lentamente

    ma inesorabilmente avvicinando ai suoi limiti fisici

    di miniaturizzazione, uno dei fattori chiave del

    miglioramento delle prestazioni.

    Per poter continuare la corsa al miglioramento delle

    prestazioni dei computer e delle apparecchiature

    elettroniche in generale, fisici e ingegneri stanno

    quindi testando la possibilità di ricorrere ad altri

    materiali, e in particolare ai cosiddetti materiali

    bidimensionali, il cui spessore varia da uno a

    pochissimi strati atomici.

    Il primo microprocessore bidimensionale

    Illustrazione di uno strato di disolfuro di molibdeno

    fra due strati di grafene (azzurro).(

    Cortesia Kansas State University)La pellicola triatomica

    di disolfuro di molibdeno sperimentata al Politecnico

    di Vienna non solo appartiene a questa classe di

    materiali, ma è anche un semiconduttore, una proprietà

    essenziale per il funzionamento dei transistor che

    il grafene -  il capostipite dei materiali bidimensionali,

    scoperto nel 2004 - non ha.

    Proprio la natura sostanzialmente bidimensionale di

    questi materiali permette di sfuggire a una serie di

    limiti intrinseci della tradizionale tecnologia al silicio,

    ma a sua volta complica per altri versi la progettazione

    di un processore che per le proprie connessioni

    interne non può sfruttare la terza dimensione.

     Per questo finora non si era riusciti a creare strutture

    che comprendessero più di una manciata di transistor.

    Per superare questa difficoltà, spiega Thomas Mueller,

    che ha diretto la ricerca, "siamo stati molto attenti

    alle dimensioni dei singoli transistor.

    I rapporti esatti tra le geometrie dei transistor nei

    componenti di base del circuito sono un fattore critico

    per riuscire a creare unità più complesse a cascata."

    Anche se la tecnologia adottata dai ricercatori avrà

    bisogno di ulteriori perfezionamenti per permettere

    la creazione di circuiti con migliaia o addirittura

    milioni di transistor, la dimostrazione di principio della

    loro fattibilità è ormai acquisita.

     
     
     

    Le disuguaglianze nella distribuzione della ricchezza

    Post n°2147 pubblicato il 29 Aprile 2019 da blogtecaolivelli

    Fonte: Le Scienzel

    Le disuguaglianze nella distribuzione

    della ricchezza fra i membri di una società

    hanno iniziato a diventare rilevanti durante

    il Neolitico, con l'avvento dell'agricoltura e

    dell'allevamento.

    A parità di sviluppo economico, le antiche

    culture del Nord e Centro America erano

    però più ugualitarie di quelle del Vecchio

    Mondo(red)

    archeologiaecomomia

    Nella storia dell'umanità, le disuguaglianze

    nella distribuzione della ricchezza hanno

    iniziato ad accentuarsi durante il Neolitico e

    sono generalmente aumentate con la domestica-

    zione di piante e animali e con la complessità

    delle strutture sociali.

    Queste disuguaglianze, inoltre, sono state

    decisamente più marcate nelle società euroasiatiche

    che in quelle dell'America settentrionale e centrale.

    A stabilirlo è lo studio di un gruppo di ricercatori

    diretto da Timothy A. Kohler della Washington

    State University a Pullman, negli Stati Uniti, che

    ne riferiscono su "Nature".

    Le disparità economiche risalgono al Neolitico

    Uno dei più antichi insediamenti agricoli nella

    cosiddetta mezzaluna fertile, nell'attuale Siria,

    risalente all'8000 a.C. (Cortesia Dr. Alejandro

    Pérez-Pérez, University of Barcelona)

    Gli archeologi si interrogano da tempo sulle

    differenze di accesso alle risorse nelle società

    più antiche, ma si sono scontrati con la difficoltà

    di individuare variabili che riflettessero la

    condizione economica delle famiglie e  al tempo

    stesso permettessero un confronto fra culture ed

    epoche diverse.

    (Le offerte collocate nelle tombe, per esempio,

    non sono un buon parametro, dato che le

    tumulazioni che  possiamo ritrovare oggi erano

    riservate in genere a persone di stato sociale

    elevato e non sono rappresentative di tutta la

    popolazione.)

    Kohler e colleghi hanno ora mostrato che un

    parametro relativamente semplice e universale

    della capacità economica di una famiglia sono

    le dimensioni delle case all'interno di una comunità.

    Nelle società in cui gran parte delle persone hanno

    una posizione economica simile, le abitazioni

    tendono ad avere le stesse dimensioni.

    Ma per i gruppi in cui alcuni hanno una ricchezza

    maggiore di altri, si osserva di solito la coesistenza

    di case piccole e grandi.

    Le disparità economiche risalgono al Neolitico

    Una famiglia delle cultura BaYaka, dell'Africa

    centrale, ancora oggi prevalentemente dedita

    alla caccia e raccolta. (Cortesia Gul Deniz Salali)

    Sulla base dei dati raccolti i ricercatori hanno

    rilevato una maggiore disparità economica nei siti

    agricoli rispetto a quelli occupati da cacciatori-

    raccoglitori o da popolazioni con un'economia "mista"

    (costituite da piccoli gruppi che integravano piccole

    colture con le risorse ottenute con la caccia o

    la pesca), e questa disparità era tanto maggiore

    quanto più era importante la domesticazione

    di grandi mammiferi e l'estensione delle coltivazioni

    agricole. 

    A questo si sovrappone poi il livello di strutturazione

    e complessità della società, con la creazione di

    élite politiche.

    I risultati hanno mostrato che i siti eurasiatici

    avevano raggiunto livelli di disuguaglianza

    significativamente più elevati rispetto a quelli

    nordamericani, anche quando le rispettive

    economie agricole erano durate per periodi

    di tempo equivalenti.

    Per realizzare i confronti i ricercatori hanno

    adattato un classico strumento socioeconomico,

    il cosiddetto indice di Gini, sviluppato più di un

    secolo fa dallo statistico e sociologo italiano

    Corrado Gini. In teoria, un paese in cui vi è una

    distribuzione della ricchezza perfettamente

    equa avrebbe un indice di Gini pari a 0, mentre

    un paese in cui tutta la ricchezza è concentrata

    in una sola famiglia avrebbe un indice pari a 1.

    Le disparità economiche risalgono al Neolitico

    Terracotte pueblo rinvenute a Pueblo Bonito,

    nel New Mexico, risalenti a 1000 anni fa circa.

    I ricercatori hanno scoperto che l'indice di Gini

    delle società di cacciatori-raccoglitori è tipicamente

    0,17, il che segnala una bassa disparità nella

    distribuzione delle risorse, coerente con l'elevata

    mobilità che rende difficile l'accumulazione della

    ricchezza.

    Nel caso delle antiche economie miste, l'indice

    sale a 0,27 e cresce ulteriormente - in media a

    0,35 - nelle società in cui l'agricoltura predominava

    nettamente.

    Questa media nasconde però forte differenze:

    se nel Nuovo Mondo l'indice difficilmente superava

    lo 0,3, nel Vecchio Mondo si raggiunge anche un

    indice pari a 0,59.

    Per dare un'idea più concreta del significato di

    questi valori, l'articolo riporta anche alcuni esempi

    dell'indice di Gini di paesi contemporanei: l'indice

    di Gini attribuito alla Grecia di oggi è 0,56 e quello

    della Spagna 0,58 (l'Italia è a 0,59): valori

    decisamente elevati, ma ancora ben inferiori a quelli

    attribuibili alla Cina (0,73) e agli Stati Uniti (0,80).

     
     
     

    Ancora su Oetzi....

    Post n°2146 pubblicato il 29 Aprile 2019 da blogtecaolivelli

    Fonte: Le Scienze

    Era un patchwork di pelli di cinque animali

    diversi - vitello, capra, pecora, orso e capriolo

    - a comporre gli indumenti di Ötzti, l'uomo

    vissuto 5300 anni fa i cui resti congelati sono

    stati scoperti 25 anni fa in seguito al ritiro del

    ghiacciaio del Similaun.

    A stabilirlo è stata l'analisi del DNA mitocondriale

    di minuscoli campioni dei diversi capi di vestiario

    condotta da un gruppo di ricercatori dell'Eurac

    (European Academy of Bozen/Bolzano) di Bolzano

    e dell'University College di Dublino, che illustrano

    la loro ricerca su  "Nature Scientific Report".

    Il corpo dell'uomo del Similaun - piccolo di statura

    e di un'età ragguardevole per il tempo, circa 40

    anni stando agli studi osteologici - fu trovato da

    due escursionisti a 3210 metri di altitudine, nei

    pressi del valico che collega la Val Senales con

    la Ventertal, nelle Ötztaler Alpen

    (da cui il nomignolo Ötzi) in prossimità del confine

    con l'Austria.

    Il DNA racconta i segreti dell'abbigliamento di Ötzi

    Alcuni oggetti dell'equipaggiamento di Ötzi.

    Da sinistra a destra: un pugnale di pietra, due archi,

    una faretra di pelle, e altro oggetti in legno e

    corteccia di betulla, fra i quali una pietra discoidale

    forata in cui era inserita una striscia di pelle.

    (Cortesia Institute for Mummies and the Iceman)

    La scoperta dei nuovi particolari del vestiario

    permette di gettare uno sguardo più accurato

    sullo stile di vita di Ötzi e dei suoi contemporanei.

    Il pastrano che indossava era una combinazione

    di almeno quattro pelli di due specie: capra e pecora.

    Di pecora era era anche il grembiule-perizoma che

    indossava sotto, mentre erano di vitello i lacci delle

    scarpe, il "marsupio" e la cintura con cui questo era

    legato.

    Questi dati concordano con la precedente scoperta

    che la cultura a cui apparteneva era sostanzialmente

    agro-pastorale; l'abbigliamento e gli oggetti che

    aveva con sé,  fra cui una piccola scorta di grano

    e farro, fanno infatti ritenere che avesse da poco 

    preso parte a un lavoro di mietitura.

    Tuttavia, qualche evento drammatico deve averlo

    spinto a cercare di valicare il passo alpino in

    autunno ormai avanzato nonostante il suo cattivo

    stato di salute appurato dalle indagini. 

    Inoltre, la presenza di una frattura al cranio

    appena precedente al decesso ha sollevato

    interrogativi sulla una possibile morte violenta.  

    Il ricorso a pelli di diversi tipi di animali per la

    confezione del pastrano indica che per

    l'abbigliamento veniva usato ciò che era disponibile

    al momento, evitando di macellare i capi al solo

    scopo di usarne la pelle o la pelliccia.

    I gambali erano però interamente di pelle di

    capra, proprio come quelli trovati pochi anni fa

    sul passo di Schnidejoch, nelle Alpi bernesi, in

    Svizzera: un particolare che suggerisce che gli

    uomini dell'epoca facessero comunque attenzione

    ai diversi materiali, selezionandoli per i vari usi

    in funzione, per esempio, della loro flessibilità,

    e della loro capacità di isolamento.

    La faretra e il cappello erano invece ricavati da

    due specie selvatiche, rispettivamente dalla pelle d

    i capriolo e dalla pelliccia di orso, e questo ci dice

    che gli abitanti della regione erano comunque

    provetti cacciatori, anche se l'attività venatoria

    non era la fonte principale del loro sostentamento.

    Tutte le pelli, cucite con maestria, erano state

    trattate con grassi animali per la concia, e  ed è

    agli effetti di questo procedimento i ricercatori

    imputano il fallimento del tentativo di estrarre

    dai campioni il DNA nucleare, che li ha costretti

    a limitarsi al solo DNA mitocondriale.

    Proprio per festeggiare i 25 anni di studi seguiti

    all'eccezionale scoperta dell'uomo del Similaun il

    Museo archeologico dell'Alto Adige ha varato

    una serir di iniziative fra cui una giornata a

    ingresso libero (il 18 settembre) e, in collaborazione

    con l'Istituto per le mummie e l'Iceman dell'EURAC,

    un congresso scientifico  ("3rd Bolzano Mummy

    Congress - Ötzi: 25 years of research" dal 19 al

    21 settembre) nell'ambito del quale verranno

    presentati gli ultimi risultati delle ricerche

    sull'uomo venuto dal ghiaccio. (Qui l'elenco

    completo delle manifestazioni)

     
     
     

    Le radici neurologiche dell'espansione demografica umana

    Post n°2145 pubblicato il 29 Aprile 2019 da blogtecaolivelli

    Fonte: Le Scienze

    23 gennaio 2018

    Le radici neurologiche dell'espansione demografica umana

    Le radici neurologiche dell'espansione demografica umana

    La grande espansione demografica degli

    esseri umani, di gran lunga superiore a

    quella di tutti gli altri primati, è legata

    all'evoluzione del loro comportamento

    sociale, che a sua volta è correlata a

    specifiche modifiche nella biochimica

    del cervello(red)

    neuroscienzeantropologiaevoluzione

    L'enorme successo riproduttivo degli esseri

    umani sarebbe correlato a cambiamenti nella

    biologia molecolare del cervello.

    A individuare questi cambiamenti è un gruppo

    di ricercatori della Kent State University, in Ohio,

    che li illustrano 

    sui "Proceedings of the National Academy of Sciences" 

    (PNAS).

    Il successo demografico degli esseri umani, di gran

    lunga maggiore rispetto ai nostri parenti più prossimi,

    è stato sicuramente mediato da abilità sociali

    particolarmente sviluppate come la cooperazione,

    l'altruismo, l'empatia e il linguaggio.

    Tuttavia non è mai stato chiaro in che modo l'evoluzione

    del comportamento sociale umano si sia tradotta

    in un miglioramento del successo riproduttivo

    individuale rispetto agli altri primati.

    Se, infatti, il passaggio all'andatura perfettamente

    bipede ha dato ai nostri antenati una maggiore

    capacità di esplorare i terreni aperti alla ricerca di cibo,

    aveva il grave svantaggio di aumentare la probabilità

    di lesioni muscolo-scheletriche, era energicamente

    costoso, e decisamente lento e goffo rispetto ai

    movimenti dei predatori.

    Le radici neurologiche dell'espansione demografica umana

    Secondo C. Owen Lovejoy e colleghi, questo

    handicap evoluzionistico è stato superato grazie

    alla selezione di un particolare tipo di personalità,

    in cui il comportamento è influenzato in modo

    essenziale dallo striato ventrale, una regione del

    cervello che partecipa alla modulazione del

    comportamento sociale, oltre che di quello motorio.

    I ricercatori hanno analizzato il profilo neurochimico

    nello striato degli esseri umani per confrontarlo

    con quello degli altri primati.

    Esseri umani, scimpanzé e gorilla mostrano un

    aumento di serotonina rispetto ad altri primati,

    ed esseri umani e scimpanzé condividono anche

    un aumento del neuropeptide Y.

    Le scimmie antropomorfe presentano inoltre un

    elevato livello di acetilcolina e un basso livello di

    dopamina, una combinazione che è associata a

    stili di personalità motivati prevalentemente da

    stimoli interni e caratterizzati da aggressività,

    dominanza, bassa motivazione a modificare i

    comportamenti in corso in risposta agli stimoli

    sociali o ambientali, nonché a una conoscenza

    relativamente superficiale dell'ambiente.

    Al contrario, gli esseri umani hanno alti livelli di

    dopamina e bassi di acetilcolina, che tracciano

    un profilo di personalità unico, associato a

    comportamenti più attenti alla conformità sociale

    e reattivi agli stimoli sociali e ambientali, a una

    minore aggressività e a una conoscenza più

    sofisticata dell'ambiente.

    Elevate concentrazioni di dopamina nello striato

    sono anche associate a forti legami di coppia,

    cioè alla monogamia.

    Incoraggiando la tendenza all'approvvigionamento

    di cibo da parte del maschio e la monogamia,

    questo tipo di personalità deve avere migliorato

    la sopravvivenza delle femmine e dei figli.

    A sostegno di questa tesi Lovejoy e colleghi hanno

    quindi condotto un secondo studio - 

    pubblicato anch'esso su "PNAS" -

    in cui hanno esaminato la mortalità e la fertilità dei

    macachi, i primati di maggior successo demografico

    dopo gli esseri umani. Hanno così stabilito che la

    chiave del successo riproduttivo dei macachi era

    proprio l'elevata sopravvivenza femminile.

     
     
     

    ARCHIVIO MESSAGGI

     
     << Aprile 2019 >> 
     
    LuMaMeGiVeSaDo
     
    1 2 3 4 5 6 7
    8 9 10 11 12 13 14
    15 16 17 18 19 20 21
    22 23 24 25 26 27 28
    29 30          
     
     

    AREA PERSONALE

     

    FACEBOOK

     
     
    Citazioni nei Blog Amici: 1
     

    ULTIME VISITE AL BLOG

    vurlaprefazione09m12ps12vittorio.59dony686miriade159tirchio2000blogtecaolivelliellistar2012Draiostre.sa47bibanna545annamatrigianoLoneWolf1822
     

    CHI PUò SCRIVERE SUL BLOG

    Solo l'autore può pubblicare messaggi in questo Blog e tutti gli utenti registrati possono pubblicare commenti.
    I messaggi e i commenti sono moderati dall'autore del blog, verranno verificati e pubblicati a sua discrezione.
     

    CERCA IN QUESTO BLOG

      Trova
     

    ARCHIVIO MESSAGGI

     
     << Aprile 2019 >> 
     
    LuMaMeGiVeSaDo
     
    1 2 3 4 5 6 7
    8 9 10 11 12 13 14
    15 16 17 18 19 20 21
    22 23 24 25 26 27 28
    29 30          
     
     
    RSS (Really simple syndication) Feed Atom
     
    Citazioni nei Blog Amici: 1
     

    TAG CLOUD

     
    Citazioni nei Blog Amici: 1
     

    ARCHIVIO MESSAGGI

     
     << Aprile 2019 >> 
     
    LuMaMeGiVeSaDo
     
    1 2 3 4 5 6 7
    8 9 10 11 12 13 14
    15 16 17 18 19 20 21
    22 23 24 25 26 27 28
    29 30          
     
     
     

    © Italiaonline S.p.A. 2024Direzione e coordinamento di Libero Acquisition S.á r.l.P. IVA 03970540963