Creato da giovannaferrari_1988 il 06/10/2014
 

La Scienza

La Scienza, questa sconosciuta

 

 

Il vero problema della ricerca di vita su Marte

Post n°24 pubblicato il 17 Ottobre 2015 da giovannaferrari_1988
Foto di giovannaferrari_1988

 

Gli scienziati della NASA hanno annunciato di aver trovato la prova più convincente mai ottenuta che Marte, in passato ritenuto un pianeta arido, sterile e sostanzialmente privo di vita, può invece ospitare organismi viventi.

Su alcune regioni del Pianeta Rosso è infatti presente acqua liquida, che scorre lungo i pendii e si accumula alla base delle colline e dei crateri equatoriali in pozze in cui potrebbe fiorire la vita. Queste importanti zone di Marte potrebbero essere i luoghi del sistema solare più adatti alla ricerca di vita extraterrestre.

L'esame delle regioni potenzialmente abitabili di Marte alla ricerca di segni di vita è senza dubbio l'obiettivo principale dell'invio di esseri umani sul Pianeta Rosso, ma secondo uno studio congiunto della National Academy of Sciences e della European Science Foundation, oggi non siamo preparati per questa missione.

Tuttavia, i problemi non sarebbero il rischio di esplosione di razzi, i budget ridotti, i giochi politici al limite della legalità o il supporto popolare troppo volubile, cioè tutte le spiegazioni avanzate dai sostenitori dell'esplorazione spaziale per la lunga attesa dei viaggi con equipaggio oltre l'orbita terrestre.

Piuttosto, il problema è la vita stessa: ovvero la tenacia dei microbi terrestri e la potenziale fragilità di quelli marziani. Si è scoperto, infatti, che il modo più semplice per trovare la vita su Marte potrebbe essere importare i batteri da Cape Canaveral, causando una contaminazione che potrebbe sabotare la ricerca di quelli marziani.

La necessità di proteggere un'eventuale biosfera marziana dalla contaminazione terrestre potrebbe "impedire all'equipaggio di sbarcare o di accedere ad alcune zone" dove potrebbe esistere la vita marziana.

Anche se questa idea non è una novità, la sua franca e formale ammissione da parte di un autorevole studio è da considerare un evento. La NASA ha in programma d'inviare uomini su Marte entro il 2030; comprensibilmente, il fatto che quelle missioni possano inevitabilmente comportare rischi di contaminazione estremi non è una cosa che l'agenzia desideri mettere in evidenza proprio mentre è impegnata a studiare le possibili soluzioni al problema.

Fino a ora, la "protezione planetaria" di Marte ha riguardato l'esplorazione robotica. Il rischio di contaminazione è un problema anche per le macchine, che però, a differenza degli umani, prima del lancio possono tollerare di essere irradiate e inondate di sostanze chimiche aggressive per distruggere batteri clandestini. Microbi che si rifiutano ostinatamente di morire emergono regolarmente nelle camere bianche apparentemente sterili usate dalla NASA per la preparazione di veicoli interplanetari. Anche gli astronauti della missione Apollo hanno trovato batteri sulla Luna, sopravvissuti a un vuoto quasi totale all'interno del lander robotico Surveyor 3, atterrato sul pianeta più di due anni e mezzo prima. Se i microbi terrestri possono vivere in posti come quello, perché non in alcune delle parti più abitabili di Marte?

L'Outer Space Treaty delle Nazioni Unite del 1967 vieta la "contaminazione pericolosa" di altri mondi con forme biologiche terrestri, e un'organizzazione internazionale chiamata COSPAR (Committee on Space Research) stabilisce protocolli di protezione dei pianeti a cui devono attenersi Stati Uniti, Europa, Russia e le altre nazioni firmatarie che si accingono a viaggiare nello spazio.

Per proteggere Marte, dal 2002 il COSPAR ha definito alcune ristrette "regioni speciali" sul pianeta, dove la temperatura e l'umidità sono sufficienti a supportare la vita di organismi marziani o di invasori terrestri. A causa del rapido progresso in atto nelle nostre conoscenze sull'ambiente marziano e dei limiti fondamentali della biologia terrestre, la definizione precisa delle regioni speciali resta però work in progress, e viene rivista ufficialmente ogni due anni.

Quanto più da vicino i planetologi guardano Marte, tante più numerose sono le regioni speciali che pensano di vedere. Le regioni speciali punteggiano l'equatore e le medie latitudini del pianeta, in canaloni erosi e ripidi, pendii rocciosi di colline e crateri dove l'acqua salmastra fluisce e si accumula dalle falde acquifere durante le estati marziane.

Regioni speciali possono anche essere trovate in grotte, sotto le calotte polari e nei punti caldi geotermici di attività sismica o vulcanica. Appena cinque metri sotto la superficie, dove le acque sotterranee possono persistere in forma di ghiaccio, vaste aree del pianeta possono essere considerate regioni speciali che aspettano solo di essere trasformate in un accogliente paradiso idrico per i microbi dal calore proveniente da un cratere da impatto di nuova formazione o dalle operazioni di un veicolo spaziale appena atterrato.

Le regioni speciali potrebbero esistere anche in corrispondenza delle misteriose sorgenti di metano recentemente rilevate su Marte. Sulla Terra, questo gas è prodotto principalmente da microbi, ma le quantità osservate su Marte potrebbero aver origine da fonti abiotiche, anche se tali vie di produzione senza vita richiederebbero comunque acqua allo stato liquido.

Ma per sapere con certezza se uno di questi luoghi sia davvero una regione speciale, probabilmente occorre visitarli, cosa molto difficile da fare con gli attuali protocolli. Prima di visitare una regione speciale, un veicolo spaziale dovrebbe essere, in parte o per intero, sterilizzato rigorosamente secondo regole rigide, il che comporterebbe ulteriori anni di sviluppo e molti milioni di dollari per finanziare una missione. E anche così, i protocolli potrebbero non essere abbastanza rigorosi: le tecniche attuali non sono in grado di sterilizzare completamente una sonda spaziale, e nessuno sa realmente quali siano le condizioni di soglia perché i batteri riescano a stabilire colonie autosufficienti e vitali su Marte o sulla Terra.

La prime, e finora uniche, missioni verso Marte della NASA dedicate esplicitamente alla ricerca della vita sono stati i lander gemelli Viking, atterrati sul Pianeta Rosso nel 1976. Da allora tutti gli altri si sono concentrati sulla ricerca di segni di vita nell'antico passato di Marte, invece che nel suo presente.

Se non ci si può fidare neppure dei robot sterilizzati per avventurarsi in regioni speciali, che dire di esseri umani pieni di microbi? Se gli astronauti fossero autorizzati a visitare solo luoghi al di sotto degli standard per cercare la vita su Marte, la NASA o qualunque altro soggetto riuscirebbero a giustificare le decine o le centinaia di miliardi di dollari necessari per mandarli lassù?

Se un equipaggio umano atterrasse in un'area ritenuta poco adatta alla vita, ma scoprisse condizioni abitabili o forme viventi, dovrebbe spostarsi immediatamente, riprendere il razzo e tornare in orbita? Queste e altre domande senza risposta mostrano come la scoperta di una biosfera marziana attuale potrebbe essere, per diverse ragioni, la realizzazione del più grande sogno della NASA o il suo incubo peggiore. E spiegano il fatto, altrimenti inspiegabile, che nella ricerca di vita su Marte da parte della NASA sono stati accuratamente evitati i luoghi in cui potrebbe essere trovata con buona probabilità.

Carl Sagan, noto astronomo, divulgatore e autore di fantascienza, sosteneva che se la vita venisse mai trovata sul quarto pianeta, "Marte apparterrebbe ai marziani, anche se fossero solo microbi". In questa prospettiva il pianeta sarebbe da considerare un santuario intoccabile, vietato per sempre all'invadente essere umano.

Una prospettiva diversa sostiene che gli sforzi di protezione planetaria sono inutili, forse anche ingenui: per effetto della probabile contaminazione da veicolo spaziale avvenuta in precedenza, o degli antichi scambi di materiali proiettati nello spazio dagli impatti di massicci asteroidi, Marte probabilmente ha già sperimentato molte ondate di invasori terrestri, ciascuna delle quali avrebbe potuto essere facilmente respinta da qualsiasi biosfera nativa, più adatta all'ambiente del pianeta.

Tra le tante incertezze, una cosa è molto chiara: le implicazioni della protezione planetaria dovute all'invio di astronauti su Marte sollevano enormi interrogativi all'incrocio tra scienza, ingegneria, tecnologia, gestione dei progetti e politiche pubbliche. Per la NASA e le altre agenzie spaziali, il vero significato della dichiarazione dovrebbe essere altrettanto chiaro: anche se svantaggiose, le questioni relative alla protezione planetaria connesse alle missioni con equipaggio su Marte sono troppo importanti per poterle rifiutare, eludere o minimizzare.

Ora è il momento di iniziare ad affrontarle. In caso contrario, i viaggi umani lassù potrebbero non riuscire o, nel peggiore dei casi, rivelarsi dei fallimenti in grado di spegnere le speranze di studiare campioni incontaminati di vita marziana.

 

 

 
 
 

Usare il DNA per colmare i vuoti della storia

Post n°23 pubblicato il 01 Ottobre 2015 da giovannaferrari_1988

 

Nel corso della storia umana, le innumerevoli migrazioni hanno portato al contatto tra popolazioni, lasciando una traccia nel DNA dei discendenti. La genetica delle popolazioni ha ora uno strumento ancora più raffinato per ricostruire gli eventi e le epoche storiche in cui sono avvenuti questi contatti, grazie a un nuovo studio apparso sulla rivista "Current Biology" a firma di George Busby e colleghi dell'Università di Oxford.

Il nuovo metodo si basa sull'analisi delle varianti a carico di singoli geni nei genomi delle diverse popolazioni e della loro reciproca distanza all'interno dei cromosomi. I dati che si ottengono da questo confronto, testato per la prima volta su genomi europei, possono essere usati per dedurre sottili correlazioni tra le popolazioni, comprese quelle geneticamente molto simili.

"Ora abbiamo a disposizione un nuovo metodo statistico per scoprire quali eventi storici abbiano prodotto i 'mosaici genomici' dell'attuale popolazione europea", ha spiegato Busby. "L'efficacia dimostrata nella ricostruzione dell'evoluzione genetica di una regione del mondo come quella europea, studiata approfonditamente sia dal punto di vista archeologico sia da quello storico, indica che il metodo potrebbe essere molto utile se applicato ad aree geografiche dove le testimonianze storiche sono invece scarse, perché la genetica potrebbe essere l'unico metodo d'indagine del passato".

I risultati dell'analisi di Busby e colleghi mostrano che i genomi europei sono il frutto di continui rimescolamenti genici, dovuti al contatto non solo tra gruppi vicini ma anche tra popolazioni di luoghi molto distanti tra loro.

Per esempio, nei genomi di alcuni gruppi etnici europei che vivono in quello che attualmente è il territorio della Federazione Russa, tra cui i Ciuvasci, i Mordvini, e gli stessi russi, i ricercatori hanno scoperto le prove di un contatto con gruppi arrivati dalla Mongolia in due ondate: la seconda corrisponde alla ben nota conquista di Gengis Khan, nel 1200, mentre la prima è avvenuta intorno all'anno 1000.

Esistono anche prove di molteplici contatti tra europei e popolazioni provenienti dall'Africa occidentale e settentrionale, nonché del rimescolamento genico generato dell'espansione slava, tra il settimo e l'undicesimo secolo.

 

 

 
 
 

Le piccole crepe del modello standard

Post n°22 pubblicato il 26 Settembre 2015 da giovannaferrari_1988

Alle scale più piccole, tutto nell'universo può essere frammentato in pezzi fondamentali, chiamati particelle. Il modello standard della fisica delle particelle, la teoria che riguarda questi pezzi fondamentali, descrive un piccolo zoo di specie conosciute, che si combinano in diversi modi per costruire tutta la materia che vediamo intorno a noi e per mediare le forze della natura. Eppure i fisici sanno che queste particelle non possono essere tutto quello che c'è: per esempio, non rendono conto della materia oscura e nemmeno dell'energia oscura che sembrano contribuire in modo decisivo alla massa dell'universo.

Ora due esperimenti hanno osservato particelle che si comportano in modi non previsti da leggi note della fisica, suggerendo potenzialmente l'esistenza di qualche nuova specie oltre lo "zoo di particelle" standard. I risultati non sono ancora pienamente confermati, ma molti fisici sono già in fibrillazione per il fatto che due esperimenti basati sulla collisione di diversi tipi di particelle hanno osservato un effetto simile e che un accenno di questo comportamento era già stato osservato nel 2012 in un terzo acceleratore.

"È davvero strano", afferma Mark Wise, fisico teorico del California Institute of Technology, non coinvolto negli esperimenti. "La discrepanza è notevole e sembra reggersi su una base sensata. Probabilmente è la deviazione dal modello standard più evidente che abbiamo mai visto". Trovare una simile crepa nel modello standard è emozionante perché indica un potenziale percorso verso l'espansione del modello oltre le particelle oggi note.

I risultati che hanno fatto sobbalzare sulla sedia più di un fisico sono relativi all'esperimento LHCb del Large Hadron Collider (LHC) al CERN di Ginevra, e all'esperimento Belle dell'High Energy Accelerator Research Organization (KEK), in Giappone. Entrambi hanno osservato un eccesso di alcuni tipi di leptoni rispetto ad altri prodotti, quando particelle chiamate mesoni B (costituiti da un quark bottom e un antiquark) decadono. I leptoni sono una categoria di particelle che comprende gli elettroni, e i loro cugini più pesanti, i muoni e i tauoni.

Un principio del modello standard, noto come universalità leptonica, afferma che tutti i leptoni dovrebbero risentire allo stesso modo dall'interazione debole, la forza fondamentale responsabile del decadimento radioattivo. Eppure, tra i prodotti finali del gran numero di decadimenti di mesoni B prodotti nei due esperimenti, sono stati osservati molti più tauoni, mentre in realtà ci si attendeva un pari numero di elettroni, muoni e tauoni (tendendo in debito conto le diverse masse delle particelle).

Collisioni di atomi

LHC fa collidere protoni con protoni, mentre Belle fa scontrare elettroni con le loro controparti di antimateria, i positroni. Tuttavia, entrambe le collisioni talvolta producono mesoni B, permettendo di misurare i prodotti finali quando questi mesoni instabili decadono. In un articolo pubblicato sul numero dell'11 settembre delle "Physical Review letters", il gruppo di LHCb ha annunciato di aver osservato un potenziale eccesso di tau, variabile tra il 25 e il 30 per cento, rispetto alla frequenza prevista dal modello standard. Belle ha osservato un effetto simile, anche se meno pronunciato, nei dati riportati in un articolo in fase di revisione presso la rivista "Physical Review D". I due gruppi di ricercatori hanno reso pubblici i loro risultati a maggio, nel corso della conferenza Flavor Physics & CP Violation 2015, tenutasi a Nagoya, in Giappone.

Un dato interessante è che entrambi i risultati sono in accordo con precedenti risultati del 2012 (ed estesi nel 2013), ottenuti con l'esperimento BaBar dello SLAC National Accelerator Laboratory di Menlo Park, in California. "Di per sé, né il risultato di Belle né quello di LHCb sono significativamente fuori dal modello standard", sottolinea Tom Browder, dell'Università delle Hawaii, membro del team di Belle e portavoce del successivo progetto Belle II. "Insieme con BaBar, possiamo fare una 'media mondiale (combinando tutti i risultati), che è 3,9 sigma fuori dal modello standard". Il termine sigma si riferisce alla deviazione standard, una misura statistica di una divergenza, e in genere tra i fisici il valore di soglia per poter annunciare una scoperta è di 5 sigma. Anche se non soddisfa questo requisito, una differenza di 3,9 sigma indica che la probabilità che questo effetto avvenga casualmente è solo dello 0,011 per cento.

"Attualmente, abbiamo tre indizi significativi, ma non conclusivi di un effetto molto interessante", commenta Zoltan Ligeti, fisico teorico del Lawrence Berkeley National Laboratory, non coinvolto negli esperimenti. "Dovremmo conoscere la risposta definitiva in pochi anni", via via che gli esperimenti raccolgono più dati.

Se la discrepanza è reale e non frutto di una fluttuazione statistica, i ricercatori dovranno affrontare una sfida impegnativa: capire che cosa significhi. "Questo effetto in realtà non è del tipo atteso dalla maggior parte dei fisici", aggiunge Ligeti. "Non può trovare spazio facilmente nei modelli più condivisi: in questo senso è sorprendente".

La supersimmetria, per esempio, una delle più accreditate teorie della cosiddetta "nuova fisica", non contempla un effetto del genere. La supersimmetria prevede un mucchio di particelle, non ancora scoperte, speculari a quelle già conosciute. Tuttavia, nessuna delle particelle previste produce facilmente questo tipi di violazione dell'universalità leptonica. "A questo punto non penso che si possa dire che il risultato punta verso la supersimmetria, anche se non necessariamente viola questa teoria", sottolinea Hassan Jawahery, fisico dell'Università del Maryland e membro della collaborazione LHCb.

Tuttavia, se il segnale è reale, probabilmente deve essere coinvolto qualche nuovo tipo di particella. In tutti i decadimenti di mesoni B, a un certo punto viene creata una particella "virtuale" più pesante che però scompare subito: è uno strano fenomeno permesso dalla meccanica quantistica. Nel modello standard, questa particella virtuale è sempre un bosone W (una particella che media la forza debole), che interagisce in modo uguale con tutti i leptoni. Ma se la particella virtuale fosse qualcosa di più esotico, che interagisce in modo differente con i diversi leptoni in funzione delle rispettive masse, alla fine allora potrebbero essere creati più tau, perché sono i leptoni più pesanti (e che potrebbero quindi interagire più intensamente con la particella virtuale).

Un nuovo Higgs o un leptoquark?

Un potenziale candidato al ruolo di nuova particella virtuale è un diverso tipo di bosone di Higgs, più massiccio della particella scoperta da LHC nel 2012. Il bosone di Higgs conosciuto conferisce a tutte le altre particelle la loro massa. Il nuovo Higgs, oltre a essere più pesante, differirebbe da questa particella nota per altri parametri: per esempio, per influire sul decadimento del mesone B, dovrebbe avere una carica elettromagnetica, mentre il bosone di Higgs ne è privo. "Significherebbe che l'Higgs che abbiamo trovato finora non è l'unico responsabile della massa di tutte le particelle", spiega Jawahery. La supersimmetria, in effetti, prevede ulteriori bosoni di Higgs, oltre a quello che conosciamo. Inoltre, nella maggior parte delle formulazioni del modello, queste particelle di Higgs previste non creerebbero una discrepanza così evidente come quella emersa negli esperimenti.

Un'altra opzione è un'ipotetica particella ancora più esotica chiamata leptoquark, mai osservata in natura, composta da un quark e un leptone. Anche questa particella interagirebbe con il tauone più intensamente di quanto non facciano il muone e l'elettrone. "I leptoquark possono emergere in modo naturale in certi tipi di modelli", spiega Ligeti. "Ma non c'è ragione di aspettarsi che siano dotati di una massa piccola, come quella che sarebbe necessaria per spiegare questi dati. Ritengo che attualmente la maggior parte dei fisici teorici non considererebbero questi modelli particolarmente convincenti".

In effetti, tutte le spiegazioni immaginate finora dai fisici teorici lasciano a desiderare per qualche aspetto, e non fanno molto per risolvere i problemi principali della fisica, come la natura della materia oscura e dell'energia oscura. "Non c'è niente di attraente in questi modelli: sono spiegazioni ad hoc di un fenomeno, non ne prevedono altri", spiega Wise. "Ma proprio perché i fisici teorici non sono a loro agio con questo, la natura farà quello che deve".

C'è anche una possibilità, sebbene limitata, che i fisici abbiano fatto qualche errore nel calcolare le previsioni del modello standard, e che quindi le sue regole siano ancora valide. "È possibile, ma calcoli fatti di recente non hanno rivelato alcun problema serio a riguardo", spiega Michael Roney, dell'Università di Victoria, in Canada, portavoce dell'esperimento BaBar. "Si può anche ipotizzare che per gli esperimenti ci sia qualche spiegazione più convenzionale, ma le condizioni sperimentali di LHCb e di BaBar sono molto differenti tra loro. In BaBar, abbiamo continuato ad analizzare i nostri dati in modi diversi, ma l'effetto è sempre presente".

I fisici sono ottimisti sul fatto che il mistero possa essere presto risolto con più dati. Ad aprile LHC ha iniziato a produrre collisioni a energia più elevata, il che per LHCb significa più mesoni B prodotti e più possibilità di studiare la discrepanza. Per Belle, nel frattempo, è in programma un aggiornamento dell'esperimento con un rivelatore migliorato chiamato Belle II, che secondo le previsioni inizierà a raccogliere dati nel 2018. Entrambi gli esperimenti dovrebbero infine trovare più dati per confermare l'effetto, o vederlo attenuarsi, se è una fluttuazione statistica.

"Se c'è effettivamente qualcosa, abbiamo un enorme lavoro davanti a noi nel corso del prossimo decennio, per studiare questo qualcosa ancora più in dettaglio", spiega Jawahery. "Per allora sapremo anche che cosa significa, non solo che esiste".

 

 

 
 
 

I buchi neri che mettono alla prova la relatività

Post n°21 pubblicato il 26 Agosto 2015 da giovannaferrari_1988
Foto di giovannaferrari_1988

 

Nei cent'anni successivi alla sua formulazione, la teoria della relatività di Einstein è stata messa alla prova da numerosi test sperimentali, superandoli tutti. Ma questi esperimenti sono stati eseguiti in condizioni di gravità relativamente debole. I ricercatori hanno così iniziato a domandarsi se la teoria può descrivere l'universo anche in condizioni estreme, come quelle che si verificano nelle regioni attorno ai buchi neri. Uno studio pubblicato da poco su "Physical Review D" suggerisce un modo per raggiungere questo obiettivo verificando i limiti della teoria: se la relatività generale smette di valere in prossimità dei buchi neri, sostengono gli autori dell'articolo, gli effetti potrebbero essere rilevati nei raggi X emessi dalla materia che viene inghiottita dai buchi neri.

Secondo la relatività generale, il fenomeno che sperimentiamo come forza gravitazionale è il risultato della curvatura dello spazio-tempo (una combinazione delle tre dimensioni spaziali con la quarta dimensione temporale) attorno alle masse. Quanto più un oggetto è denso, tanto più deforma la struttura dello spazio-tempo e tanto più è intenso il suo campo gravitazionale.

Attorno a oggetti come i buchi neri, resti di stelle massicce esplose, così compatti che neppure la luce può sfuggire alla loro attrazione gravitazionale, lo spazio-tempo è fortemente distorto. Per formulare una previsione di come lo spazio-tempo sia curvato attorno ai buchi neri, i fisici usano le leggi della relatività e il cosiddetto teorema no-hair, o teorema dell'essenzialità, secondo cui i buchi neri sono definiti da due sole grandezze: massa e rotazione. In termini tecnici, la curvatura è denominata soluzione di Kerr.

Provare che la soluzione di Kerr fornisce un'accurata descrizione dello spazio-tempo in prossimità di un buco nero mostrerebbe che la relatività generale vale anche in ambienti con una gravità estrema. Ma finora nessuno è riuscito a provare la correttezza della soluzione di Kerr. Idealmente gli astrofisici dovrebbero registrare il moto di un oggetto mentre viaggia nella regione attorno a un buco nero per caratterizzare la curvatura dello spazio-tempo. Alcuni buchi neri però misurano solo diversi chilometri di diametro, una distanza assai piccola su scala cosmica: in questo momento non è possibile tracciare singoli oggetti che si muovono in uno spazio così limitato a distanza di anni luce.

 

 

 
 
 

Perché sotto stress perdiamo l'autocontrollo

Post n°20 pubblicato il 17 Agosto 2015 da giovannaferrari_1988
Foto di giovannaferrari_1988

 

È un'esperienza che molti possono aver provato, ma che ora ha trovato una conferma scientifica e una spiegazione: un'importante riunione di lavoro o una breve discussione con un collega possono fare la differenza se, poco dopo, dobbiamo scegliere se concederci un cioccolatino o ripiegare su uno snack più salutare.

Lo afferma una nuova ricerca pubblicata sulla rivista Neuron da Silvia Maier e colleghi, dell'Università di Zurigo, che hanno studiato in condizioni controllate in che modo lo stress altera la capacità di autocontrollo della nostra mente di fronte a una scelta.

Nello studio sono stati coinvolti in totale 51 soggetti, selezionati in base al fatto che seguivano normalmente uno stile di vita piuttosto sano, che sono stati sottoposti in condizioni di laboratorio controllate a una situazione stressante - come tenere una mano nell'acqua gelata per tre minuti - seguita da una scelta conflittuale tra due cibi, uno più saporito e l'altro più salutare.

Dall'analisi dei dati è emerso che i soggetti sottoposti a stress sceglievano con più frequenza i cibi più saporiti e meno salutari rispetto ai soggetti del gruppo di controllo. Ciò è in accordo con i risultati delle misurazioni dell'attività neurale registrata con tecniche di imaging cerebrale. Da queste, infatti, si evidenziano schemi di connettività alterata tra diverse regioni cerebrali, tra cui amigdala, striato, corteccia prefrontale dorsolaterale e ventromediale, collegati all'evidente riduzione della capacità del soggetto di mantenere l'autocontrollo sulla scelta del cibo. Inoltre, ad alcuni di questi cambiamenti neuronali erano associate anche alterazioni nel livello di cortisolo, l'ormone comunemente associato allo stress.

"I nostri risultati rappresentano un passo avanti importante verso la comprensione delle interazioni tra stress e autocontrollo nel cervello umano: dimostrano che gli effetti dello stress agiscono lungo diversi cammini neurali", ha spiegato Maier. "La capacità di autocontrollo è sensibile alle perturbazioni a diversi livelli, all'interno di questo network, e un autocontrollo ottimale richiede un preciso bilanciamento di input che provengono da diverse regioni cerebrali".

Un dato importante emerso dalla ricerca è che per influenzare le capacità di autocontrollo bastano bassi livelli di stress.

"Si tratta di un elemento significativo perché implica che anche fattori di stress moderato, molto più comuni degli eventi di stress estremo, sono in grado d'influenzare le scelte, e questo avviene molto frequentemente nella popolazione generale", ha aggiunto Todd Hare, autore senior dello studio. "Nei prossimi studi, vorremmo determinare se alcuni dei fattori protettivi nei confronti dei forti stress, come il supporto sociale, possano anche influenzare l'autocontrollo".

 

 

 
 
 

Galassie mancate piene di materia oscura

Post n°19 pubblicato il 29 Luglio 2015 da giovannaferrari_1988
Foto di giovannaferrari_1988

L'ammasso della Chioma, distante da noi circa 300 milioni di anni luce, è una delle strutture più grandi di tutto l'universo: conta, infatti, migliaia di galassie, tenute insieme dalla gravità.

Un nuovo studio pubblicato da un gruppo di astronomi della University of Western Australia, ha scoperto, sulla base di un complessa simulazione al computer, che le galassie di questo ammasso possono contenere una quantità di materia oscura fino a 100 volte più elevata della materia visibile. Si tratterebbe di galassie "mancate", in cui il processo di formazione stellare si è fermato circa sette miliardi di anni fa.

La materia oscura è la misteriosa componente che costituirebbe circa un quarto dell'universo. È così chiamata perché sfugge alle osservazioni astronomiche basate sulla radiazione elettromagnetica, a qualsiasi lunghezza d'onda, e la sua esistenza è stata dedotta dalle misurazioni dei parametri dinamici di galassie e ammassi di galassie: la velocità di rotazione intorno al centro galattico di molte stelle richiede un'attrazione gravitazionale verso il centro molto più elevata di quella prodotta dalla massa osservabile.

Un altro peculiare fenomeno cosmico, l'effetto lente gravitazionale, previsto dalla teoria della relatività generale, prevede che la luce di galassie molto lontane possa essere deviata da masse molto grandi in primo piano rispetto all'osservatore: anche in questo caso la massa richiesta per il verificarsi del fenomeno è molto maggiore di quella rilevabile con gli strumenti. Per far tornare i conti in questo caso e in quello precedente, è stata ipotizzata la presenza della materia oscura.

Nel caso dell'ammasso della Chioma invece la presenza di questa forma di materia è rivelata dal processo evolutivo delle galassie paragonabili per dimensioni alla Via Lattea, le quali, secondo le simulazioni degli autori, contengono un numero di stelle 100 volte inferiore. L'interpretazione del fenomeno da parte dei ricercatori è che si tratti di galassie "mancate", in cui il processo di formazione stellare si è arrestato quando sono entrate a far parte dell'ammasso, attratte dal suo campo gravitazionale.

"Le galassie si formano quando grandi nubi d'idrogeno gassoso collassano 'accendendo' le stelle: se si elimina questo gas, le galassie non possono crescere ulteriormente", ha spiegato Cameron Yozin, che ha guidato lo studio. "La 'caduta' all'interno di un ammasso è uno dei processi che determina questa deprivazione d'idrogeno: l'immenso campo gravitazionale dell'ammasso attrae la galassia, ma il suo gas viene spinto via".

Le stesse galassie, secondo gli autori, sono però riuscite a evitare di essere completamente distrutte perché avevano abbastanza materia oscura da proteggere la materia visibile.

"Per la prima volta le simulazioni hanno dimostrato che il processo di formazione stellare in queste galassie potrebbe essere stato interrotto dall'ammasso già sette miliardi di anni fa", ha proseguito Yozin. "Se le nostre attuali teorie sono corrette, ciò significa che la materia oscura che ha protetto la materia visibile dev'essere stata in quantità notevole".

 

 

 
 
 

L'origine dell'invecchiamento, dalla cellula all'organismo

Post n°18 pubblicato il 28 Maggio 2015 da giovannaferrari_1988
Foto di giovannaferrari_1988

 

L'alterazione dell'eterocromatina, la struttura in cui è impacchettato il DNA nel nucleo cellulare, è un processo cruciale che determina l'invecchiamento della cellula e dell'organismo. Lo ha scoperto un gruppo di ricercatori del Salk Institute e dell'Accademia delle scienze cinese guidato da Juan Carlos Izpisua Belmonte. Il risultato è stato ottenuto studiando le mutazioni genetiche che causano la sindrome di Werner, una malattia genetica che causa un invecchiamento precoce accompagnato da molte delle malattie tipiche dell'età avanzata: cataratta, diabete di tipo 2, arteriosclerosi, osteoporosi e cancro. All'origine della malattia vi è una mutazione del gene WRN (Werner syndrome RecQ helicase-like) che codifica per la proteina omonima, un importante enzima per i processi che preservano l'integrità strutturale e funzionale del DN A.

Nei soggetti affetti dalla sindrome di Werner, quando la proteina è mutata, sono compromessi i meccanismi di replicazione e riparazione del DNA e l'espressione dei geni: l'effetto complessivo è un invecchiamento prematuro dell'organismo, ma finora non erano noto in che modo la proteina mutata potesse influenzare processi cellulari cruciali.

Gli autori hanno realizzato un modello cellulare della sindrome di Werner causando una delezione del gene WRN in cellule staminali umane. Le cellule ottenute riproducevano la mutazione osservata nei pazienti con la sindrome di Werner e iniziavano a invecchiare più rapidamente del normale.

A un esame più approfondito, i ricercatori hanno scoperto che la delezione del gene WRN porta anche a un'alterazione dell'eterocromatina, la struttura in cui è strettamente impacchettato il DNA nel nucleo cellulare, che agisce come una centrale di controllo dell'attività dei geni e del complesso macchinario cellulare. Lo studio ha chiarito anche che la proteina WRN interagisce direttamente con le strutture molecolari che stabilizzano l'eterocromatina, confermando così la correlazione tra la mutazione del gene WRN e l'alterazione dell'eterocromatina.

"Il nostro studio ha chiarito la correlazione tra la sindrome di Werner e la disorganizzazione dell'eterocromatina, delineando un meccanismo molecolare con il quale una mutazione genetica porta a un'alterazione generale dei processi cellulari e dei meccanismi di regolazione dell'espressione dei geni", ha spiegato Belmonte. "Più in generale, ciò indica che le alterazioni accumulate nella struttura dell'eterocromatina possono essere una delle principali cause d'invecchiamento cellulare, sollevando anche la questione di come si possa porre rimedio a queste alterazioni e al declino dovuto all'età".

 

 

 
 
 

Tracce di interazione non gravitazionale della materia oscura

Post n°17 pubblicato il 23 Aprile 2015 da giovannaferrari_1988
Foto di giovannaferrari_1988

Per la prima volta sono stati raccolti dati osservativi che indicano che la materia oscura potrebbe interagire con altra materia oscura in un modo diverso dall'attrazione gravitazionale. L'esistenza di questa interazione è testimoniata dall'identificazione di una massa di materia oscura situata a 5000 anni luce di distanza dalle galassie centrali dell'ammasso galattico Abell 3827.

La scoperta è di un gruppo internazionale di astronomi che stavano osservando i resti della collisione di ben quattro galassie all'interno di Abell 3827 ed è il frutto del confronto fra i dati spettroscopici ottenuti con lo strumento MUSE (Multi Unit Spectroscopic Explorer) del Very Large Telescope dell'ESO, in Cile, e le immagini riprese dal telescopio spaziale Hubble.

La posizione della materia oscura è stata rilevata grazie al suo effetto di lente gravitazionale, come prevede la teoria della relatività: una imponente concentrazione di massa distorce lo spazio-tempo, provocando una deviazione del percorso dei raggi di luce che transitano nelle sue vicinanze. Così se un oggetto particolarmente massiccio s'interpone fra noi e una galassia più lontana, l'immagine di quella galassia apparirà distorta assumendo una caratteristica forma arcuata.

Più precisamente, osservando Abell 3927 gli astronomi hanno rilevato la presenza di una lente gravitazionale che distorceva l'immagine di una galassia molto più lontana di quell'ammasso. Questa lente gravitazionale non era però prodotta né dalle quattro galassie osservate né da alcun'altra galassia, e la sua fonte, invisibile, era leggermente spostata (in termini astronomici) rispetto a una delle quattro galassie centrali di Abell 3927.

L'unica spiegazione del fenomeno è che, durante la collisione delle galassie, gli ammassi di materia oscura che le accompagnano abbiano interagito in qualche modo fra loro, creando una sorta di "attrito" che ha lasciato indietro la materia oscura di una di esse rispetto al movimento della sua galassia. "Eravamo abituati a pensare che la materia oscura stesse lì tranquilla, badando solo a se stessa, fatta eccezione per l'attrazione gravitazionale" ha detto Richard Massey. "Ma se la materia oscura fosse rallentata durante la collisione, potrebbe essere la prima prova di una diversa fisica dell'universo nascosto intorno a noi."

I calcoli dei ricercatori, pur non permettendo di stabilire la natura questa interazione, hanno però escluso che sia di tipo gravitazionale. Questa informazione è preziosa perché, come osserva Liliya Williams, coautrice della ricerca, grazie a essa "possiamo scartare alcune delle teorie fondamentali sulla composizione della materia oscura".

In realtà, tutte e quattro le galassie potrebbero essere state separate dalla loro materia oscura, ma è stato possibile appurarlo solo per una di esse, perché è l'unica che, trovandosi esattamente sulla linea di vista fra noi e l'oggetto luminoso di fondo, ha creato un effetto lente gravitazionale osservabile dalla Terra.

 

 

 
 
 

Dal bombardamento di meteoriti la creazione dei mattoni della vita

Post n°16 pubblicato il 01 Aprile 2015 da giovannaferrari_1988
Foto di giovannaferrari_1988

 

La sintesi contemporanea di quattro delle basi azotate che costituiscono i mattoni della vita a partire da un plasma contenente formammide è stata ottenuta da un gruppo di ricercatori dell'Accademia delle scienze della Repubblica Ceca, che hanno ricostruito le condizioni della Terra primordiale durante l'ultimo intenso bombardamento meteoritico, o LHB (Late Heavy Bombardment), subìto dal nostro pianeta. Circa quattro miliardi di anni fa, durante l'ultima intensa fase di bombardamento meteoritico, sulla Terra sarebbero caduti circa 9 miliardi di tonnellate di polveri e piccoli corpi celesti all'anno. I passaggi fondamentali dei processi che portarono alla creazione di composti organici complessi - e in particolare i nucleotidi che formano l'RNA e il DNA (adenina, guanina, citosina, timina, e uracile) - a partire da semplici molecole inorganiche, sono stati compresi fin dai famosi esperimenti del 1953 di Stanley Miller sull'origine della vita. Tuttavia, diversi passaggi delle reazioni coinvolte continuano a essere oscuri. In particolare, non è ancora chiaro quale sia stata la fonte di energia che ha permesso una formazione di quei composti quasi contemporanea, e abbastanza diffusa da innescare lo sviluppo della vita. Svatopluk Civis e colleghi hanno dimostrato che quell'energia può essere stata fornita dal flusso particolarmente intenso di piccoli corpi cometari e meteoriti che investì la Terra circa quattro miliardi di anni fa, quando il sistema solare era ancora in una fase di relativa instabilità. In quel periodo, sul nostro pianeta piovvero fino a dieci miliardi di tonnellate di materiale extraterrestre all'anno, con velocità d'impatto comprese fra i 9 e i 21 chilometri al secondo. Civis e colleghi hanno ricreato in laboratorio - con l'aiuto di uno dei più potenti impianti laser d'Europa, il PALS di Praga - gli effetti dell'impatto di questi corpi extraterrestri, mostrando che potevano provocare localmente un aumento di temperatura fino a 4500 °K, con la formazione di una significativa onda d'urto e la creazione di un plasma, a sua volta fonte di una radiazione secondaria sotto forma di raggi ultravioletti (UV), radiazione visibile e raggi X. Gli esperimenti hanno dimostrato che, nelle condizioni che si vengono così a determinare, le molecole organiche semplici presenti nell'ambiente reagiscono e si ricombinano, portando prima alla formazione di alcuni composti intermedi e infine alla creazione delle basi azotate, quattro delle quali - adenina, guanina, citosina e uracile - sono state ottenute dai ricercatori.

 

 

 
 
 

Riparte LHC, per la fisica si apre una nuova era

Post n°15 pubblicato il 25 Marzo 2015 da giovannaferrari_1988
Foto di giovannaferrari_1988

Aver scoperto il bosone di Higgs ed essere la macchina più complessa costruita dagli esseri umani, sono le due ragioni per cui oggi il Large Hadron Collider (LHC), l'acceleratore di particelle del CERN di Ginevra, è famoso in tutto il mondo, anche presso i non addetti ai lavori. Presto però le cose potrebbero cambiare ulteriormente. Dopo uno stop di due anni dovuto a miglioramenti tecnici, a fine marzo è prevista la ripresa delle attività dell'acceleratore, che nei prossimi tre anni potrebbe aprire una fase nuova nella fisica delle particelle elementari, già a partire da fine maggio prossimo, quando inizieranno le collisioni tra protoni utili a fini di ricerca.

Le premesse ci sono tutte: dopo la riaccensione, una volta a regime LHC raggiungerà un'energia di collisione di 13 TeV (teraelettronvolt, mille miliardi di elettronvolt), un valore doppio rispetto a quello che ha portato alla scoperta del bosone di Higgs con gli esperimenti ATLAS e CMS, annunciata il 4 luglio 2012. E proprio sull'Higgs saranno concentrate le maggiori attenzioni dei fisici del CERN. Disporre di più elevate energie per collisioni tra protoni significa aumentare in modo considerevole la probabilità di generare e rilevare il bosone, e di conseguenza di misurarne con maggiore precisione la massa e il tasso di decadimento. Queste misure a loro volta permetteranno di verificare se ci sono discrepanze tra i valori misurati e quelli previsti dal modello standard, la teoria che attualmente descrive meglio il comportamento delle particelle fondamentali e di tre delle quattro forze fondamentali che agiscono nell'universo.

La scoperta del bosone di Higgs e la misurazione della sua massa in circa 126 GeV (gigaelettronvolt) hanno rappresentato una conferma della correttezza del modello standard, ma altre teorie si sono spinte oltre, ipotizzando una nuova classe di particelle "esotiche" che sfuggirebbero a qualunque rilevazione perché non risentono dell'interazione elettromagnetica, ma solo di quella gravitazionale. Potrebbero forse essere queste particelle a costituire una parte consistente della materia oscura dell'universo, invisibile agli strumenti degli osservatori astronomici, ma indispensabile per far quadrare i conti della dinamica su larga scala delle galassie e degli ammassi di galassie. LHC, grazie all'esperimento LHCb, potrebbe fornire qualche indizio su queste nuove particelle e il bosone di Higgs farebbe da ponte verso questo territorio inesplorato.

Un altro grande capitolo di verifiche sperimentali possibili con LHC è quello delle teorie supersimmetriche, elaborate per estendere il modello standard. Queste teorie prevedono che per ogni particella del modello standard esista un partner supersimmetrico con proprietà definite da principi fisici generali.

Nella lista degli obiettivi di LHC ci sono infine alcune questioni fondamentali della fisica, che riguardano la natura dell'interazione gravitazionale, l'asimmetria materia-antimateria e i primi istanti dell'universo. Nel primo caso, la questione è assai complessa, ma può essere formulata con una domanda molto semplice: perché la forza gravitazionale è così debole rispetto alle altre tre forze fondamentali, cioè la forza elettromagnetica, quella debole e quella forte? Alcune teorie hanno dato una risposta ipotizzando l'esistenza di dimensioni extra alle scale dimensionali più piccole che è possibile concepire. Una delle manifestazioni di queste extra-dimensioni sarebbe la presenza di nuove versioni delle particelle esistenti, più pesanti di quelle che conosciamo: sarà compito di LHC verificare che esistano.

Per quanto concerne l'antimateria, uno dei programmi specifici di LHC riguarderà proprio la produzione di antiparticelle e lo studio delle loro proprietà. Lo scopo è capire perché nell'universo attuale la materia ordinaria sia così preponderante rispetto all'antimateria, nonostante che siano state create in pari quantità con il big bang.

Le teorie indicano inoltre che pochi milionesimi di secondo dopo il big bang, l'universo era riempito dal cosiddetto plasma quark-gluonico, una "zuppa" di quark, i costituenti fondamentali della materia, e di gluoni, le particelle che fanno da "collante" tra quark. In quegli istanti, nel giovanissimo universo la temperatura era troppo elevata per permettere a quark e gluoni di formare protoni e neutroni. Uno dei compiti di LHC, e in particolare dell'esperimento ALICE, sarà ricreare e studiare il plasma quark-gluonico e chiarire così i punti ancora oscuri del modello che descrive i primi istanti del cosmo.

 

 

 
 
 
Successivi »
 

CARATTERISTICHE DEL BLOG

Il blog in oggetto non rappresenta un prodotto editoriale, ma costituisce solo un mezzo per divulgare contenuti aventi valenza scientifica elaborati direttamente dalla curatrice. Tutti i commenti effettuati sono a totale responsabilità dei loro autori. 

 

AREA PERSONALE

 

ARCHIVIO MESSAGGI

 
 << Aprile 2024 >> 
 
LuMaMeGiVeSaDo
 
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30          
 
 

CERCA IN QUESTO BLOG

  Trova
 

FACEBOOK

 
 
Citazioni nei Blog Amici: 2
 

ULTIME VISITE AL BLOG

Fabyold1eolo32sgilbertencristiano_ve3giovannaferrari_1988p.laurenzimiky_74_15minieri.francescobepaapranztatolo3uga45ugafobiggiotto1gartierimxaosinfaticabile2
 

ULTIMI COMMENTI

Molto interessante. Complimenti.
Inviato da: gartieri
il 23/10/2015 alle 08:59
 
Se un agente sceglie un cibo più saporito piuttosto che uno...
Inviato da: gartieri
il 03/10/2015 alle 09:09
 
Buon commento, Giovanni!
Inviato da: giovannaferrari_1988
il 27/08/2015 alle 21:43
 
I buchi neri sono stelle collassate sotto il peso della...
Inviato da: sannicola_78
il 27/08/2015 alle 18:35
 
Speriamo che l'autocontrollo sia veramente...
Inviato da: sannicola_78
il 19/08/2015 alle 18:27
 
 

CHI PUÒ SCRIVERE SUL BLOG

Solo l'autore può pubblicare messaggi in questo Blog e tutti gli utenti registrati possono pubblicare commenti.
 
RSS (Really simple syndication) Feed Atom
 
 
 
Template creato da STELLINACADENTE20