blogtecaolivelli
blog informazione e cultura della biblioteca Olivelli
TAG
TAG
Messaggi del 29/04/2019
Post n°2172 pubblicato il 29 Aprile 2019 da blogtecaolivelli
fonte: Le Scienze 12 marzo 2019 Nuove stime della mortalità mondiale parlano di 8,8 milioni di decessi in più all'anno dovuti all'inquinamento atmosferico. In Europa, la stima è di 790.000 morti all'anno, circa il doppio di quanto calcolato in precedenti studi. Ad aumentare è soprattutto il rischio di malattie cardiovascolari e polmonari, e il principale responsabile è il particolato fine epidemiologiaatmosferaambiente La salute umana è minacciata dall'aria che respiriamo molto più di quanto ritenuto finora. Secondo le stime di un nuovo studio pubblicato sulla rivista "European Heart Journal" da un gruppo internazionale di ricerca, infatti, l'inquinamento atmosferico è responsabile ogni anno di 120 decessi in più per 100.000 abitanti nel mondo, e di 133 e 129 decessi in più ogni 100.000 abitanti in Europa e nell'Unione Europea a 28 stati, rispettivamente. l'eccesso di inquinanti nell'aria ha causato 8,8 milioni di morti in più nel mondo, 790.000 in Europa, e 659.000 nell'Unione Europea. Per il nostro continente, questo significa il doppio delle morti rispetto alle valutazioni epidemiologiche precedenti. si pensa immediatamente ai danni ai polmoni, che in effetti risultano statisticamente aumentati. Ma al primo posto delle classifiche ci sono le patologie cardiovascolari, che rendono conto del 40-80 per cento delle morti in eccesso, cioè il doppio di quanto è attribuito alle patologie polmonari. Smog a Milano, gennaio 2019 (Marco Bonfanti/iStock) Se si considera in particolare l'Europa, lo studio ha calcolato che il triste primato della patologia più letale è la malattia ischemica (cioè sostanzial- mente l'infarto cardiaco, con 40 per cento dei decessi in più), seguita dall'ictus (8 per cento), dalla polmonite (7 per cento), dal tumore del polmone (7 per cento) dalla broncopneumopatia cronica ostruttiva (6 per cento). Guardando ai paesi paragonabili al nostro per popolazione e livello di sviluppo socio-economico, il primato negativo spetta alla Germania, con un tasso di mortalità in eccesso dovuto all'inquinamento atmosferico di 154 su 100.000, corrispondenti a una riduzione di 2,4 anni nell'aspettativa di vita. eccesso ogni 100.000 abitanti e una riduzione dell'aspettativa di vita di 1,9 anni e, un po' staccati, la Francia (105 morti in eccesso ogni 100.000 abitanti e riduzione dell'aspettativa di vita di 1,6 anni) e il Regno Unito (98 morti in eccesso ogni 100.00 0 abitanti e riduzione dell'aspettativa di vita di 1,5 anni). l'inquinamento atmosferico causa complessivamente la morte di circa 81.000 persone all'anno, 29.000 (36 per cento) per malattie cardiovascolari e 35.000 (43 per cento) per altre cause. alti nei paesi dell'Europa orientale, come Bulgaria, Croazia, Romania e Ucraina, con oltre 200 ogni anno per 100.000 abitanti. dall'inquinamento atmosferico in Europa è spiegato dalla combinazione di scarsa qualità dell'aria e dalla densità della popolazione, che porta a un'esposizione tra le più alte del mondo: anche se l'inquinamento atmosferico nell'Europa orientale non è molto più elevato di quello dell'Europa occidentale, il numero di morti in eccesso causato è più alto", ha spiegato Jos Lelieveld, del Max- Plank-Institut per la Chimica di Mainz, in Germania, e del Cyprus Institute di Nicosia, Cipro, coautore dell'articolo. "Bisogna poi tenere conto dell'assistenza sanitaria più avanzata nell'Europa occidentale, dove l'aspettativa di vita è generalmente più alta". gli autori mettono sotto accusa principalmente il particolato più fine PM2,5 (particelle di diametro inferiore a 2,5 micron). Attualmente, nell'Unione Europea il limite medio annuo per il PM2,5 è di 25 microgrammi per metro cubo, un valore già 2,5 vote superiore alla soglia raccomandata dall'Organizzazione mondiale della sanità (OMS). E molti paesi europei supernao regolarmente anche questa soglia più elevata. spronare i governi nazionali e le agenzie internazionali a intraprendere azioni urgenti per ridurre l'inquinamento atmosferico, compresa una nuova valutazione della legislazione sulla qualità dell'aria e un abbassamento degli attuali limiti dell'Unione Europea ai livelli medi annuali delle Linee guida dell'OMS.(red) |
Post n°2171 pubblicato il 29 Aprile 2019 da blogtecaolivelli
fonte: Le Scienze 09 marzo 2019 Le sorgenti calde sul fondo dell'oceano, ricche di vita animale, sono state scoperte per la prima volta 40 anni fa. Da allora, le conoscenze su come fa la vita a prosperare in condizioni così estreme - e quindi forse anche su altri pianeti - si sono moltiplicate, ma c'è ancora molto da scoprire. E all'orizzonte ci sono progetti di sfruttamento commerciale delle risorse di quegli ecosistemidi Cindy Lee Van Dove/Nature biologiaambienteSono passati quattro decenni da quando Corliss e colleghi descrissero su "Science" i fluttuanti ammassi di vermi tubo giganti, lunghi un metro, scoperti nei pressi delle sorgenti calde sul fondo dell'oceano. Fino a quel momento, il fondo oceanico era ritenuto più simile a un deserto che a un'oasi. sottomarine; in effetti, stavano cercando verificare l'ipotesi della loro esistenza. la strada a quella scoperta suggerendo che le catene di rilievi che cingono il globo sul fondo dell'oceano, definite come centri di espansione, fossero siti vulcanici ai margini delle placche tettoniche. era il flusso di calore conduttivo inaspettatamente basso nella crosta oceanica. Un flusso convettivo di calore attraverso le sorgenti calde poteva risolvere l'enigma di questo calore mancante. Le anomalie dell'acqua ad alta temperatura documentate sopra di un centro di espansione chiamato dorsale delle Galapagos guidarono Corliss e colleghi al sito in cui scoprirono le sorgenti termali sottomarine (dette anche camini, o fumarole, idrotermali). Mappa globale dei camini idrotermali oceanici (Savant-fou/NOAA/Wikimedia Commons)Trovare queste sorgenti termali fu già di per sé una scoperta incredibile. Ma ciò che veramente sconvolse la scienza del mare profondo furono le inaspettate oasi di vita bagnate da quelle acque tiepide. Durante l'immersione nel sommergibile Alvin che portò alla scoperta, il geologo Jack Corliss chiamò l'equipaggio della nave di appoggio a 2,5 chilometri più in sù e chiese: "L'oceano profondo non dovrebbe essere come un deserto?" "Sì", fu la risposta. "Beh, ci sono un sacco di animali quaggiù". più grande scoperta nell'oceanografia biologica fino a ora, e che fu fatta da un gruppo di geologi e geochimici. Nel loro articolo, gli autori sottolinearono profeticamente: "Queste fragili comunità offrono un'opportunità unica per una vasta gamma di studi zoologici, batteriologici, ecologici e biochimici". Che cosa è scaturito da quegli studi? si fossero adattati efficacemente al loro ambiente i vermi tubo giganti. In quella profonda oscurità, generare energia cellulare con la fotosintesi non è un'opzione valida. E poiché il materiale organico prodotto sulla superficie dell'oceano perde gran parte del suo valore nutrizionale quando raggiunge il fondo del mare profondo, non fornisce una fonte di energia adatta a sostenere dense popolazioni di grandi organismi. ad alta temperatura arricchita di solfuro di idrogeno e altri composti inorganici chimicamente ridotti (come il metano) beneficiano di batteri simbiotici o liberi che generano energia con la chemiosintesi, cioè l'ossidazione chimica di quei composti ridotti. sito oceanico fu scoperto un altro tipo di sorgente termale chiamato camino nero, che emette fluidi idrotermali ricchi di metalli. nei centri di espansione del fondale marino in tutto il mondo. Esistono circa mille o più oasi sottomarine, adagiate come minuscole perle lungo i centri di espansione. Per quanto numerosi, sono un habitat raro, se si calcola l'area totale che occupano: tutti insieme, potrebbero stare nell'isola di Manhattan, e rimarrebbe ancora dello spazio libero. forse secoli, a seconda delle condizioni geologiche. Questo solleva la questione di come si mantengono le popolazioni di invertebrati e di quale sia la natura delle barriere biogeografiche tra popolazioni nelle sorgenti termali. I cicli vitali di quasi tutti gli invertebrati che vivono nelle sorgenti termali sottomarine comprendono uno stadio larvale diffuso nella colonna d'acqua. L'ecologia larvale, la connettività di popolazione, nonché le barriere oceanografiche e le rotte di trasporto sono temi chiave della ricerca attuale. tipi differenti di specie. E alcuni centri di espansione nell'emisfero australe e nell'Artide sono ancora da esplorare, aumentando la possibilità che vi si trovino tipi di rapporti e di adattamenti tra batteri e invertebrati prima sconosciuti. Riftia pachyptila, conosciuto anche come verme tubo gigante (Credit: NOAA Okeanos Explorer Program, Galapagos Rift Expedition 2011)Specie sorprendenti e strabilianti adattamenti biologici continuano a venire alla luce. I vermi di Pompei (Alvinella pompejana) vivono a temperature fino a 42 °C. Queste sono tra le temperature più estremesopportate da qualsiasi animale multicellulare sulla Terra. I vermi ci sfidano a capire in che modo le proteine nell'organismo degli animali siano protette dalla fusione. I microrganismi chiamati Archaea possono vivere a 121 °C: sono le condizioni di vita più calde conosciute sulla Terra. I gamberetti "ciechi" (Rimicaris exoculata) mostrano "occhi" altamente modificati che si ritiene possano rilevare variazioni di luce fioca emessa dai fluidi a 350 °C dei camini neri, aiutandoli a evitare di essere "cotti" dal calore. I granchi Yeti (Kiwa tyleri) hanno artigli e zampe pelosi che consentono loro di "allevare" i batteri di cui si nutrono. Le lumache della specie Chrysomallon squamiferum strisciano su "piedi" protetti da scaglie metalliche di un tipo che non si trova in altri molluschi viventi o fossili e offrono ispirazione per la progettazione di materiali per le armature. sorgenti termali ci spinge anche a ripensare le nostre idee sulle condizioni estreme a cui può adattarsi la vita, sul'origine della vita su questo pianeta e anche sul potenziale della vita altrove nell'universo. alla ricerca di prove della presenza di vita basata sull'energia della luce solare; ora le missioni planetarie prendono in considerazione anche la possibilità di una vita alimentata dall'energia chimica. Gli astrobiologi studiano le sorgenti calde sottomarine per gettare uno sguardo a condizioni che potrebbero essere simili a quelle della Terra primordiale e considerano le sorgenti calde oceaniche dei possibili analoghi di ambienti sottomarini alieni su mondi oceanici al di là del nostro pianeta. vanno di pari passo con gli incentivi ingegneristici a progettare e costruire veicoli sempre più capaci di raggiungere il fondo marino in modo preciso e affidabile. Prima sono arrivati i veicoli comandati a distanza, e seguiti ben presto da veicoli subacquei autonomi, preprogrammati per scivolare sul fondo del mare come droni, con un carico di strumenti che mappano il fondale marino e rilevano le proprietà dell'acqua. Lo sviluppo di cavi che trasmettono dati video consente di trasmettere queste immagini in tempo reale in tutto il mondo su siti Web accessibili gratuitamente (comeNautilusLive e Camini idrotermali sul fondo oceanico nella zona delle Isole Marianne, nell'Oceano Pacifico (Credit: NOAA Expedition & Research)L'ultima generazione di veicoli per le profondità marine in fase di sviluppo sta sta trasformando l'uso per la scoperta e la ricerca scientifica in un ruolo commerciale. Sono stati progettati, costruiti e testati mole, frese e campionatori di dimensioni gigantesche per l'estrazione di depositi di solfuro sul fondo marino prodotti dall'attività idrotermale. Una società canadese si è assicurata le concessioni per effettuare estrazioni di di rame, oro e argento nelle sorgenti calde del Mare di Bismarck, anche se finora non ci sono attività di estrazione commerciale di giacimenti di solfuro dai depositi marini. sorgenti calde nei loro territori, ma il destino degli ecosistemi che si trovano in aree al di fuori dei confini nazionali è nelle mani dell'International Seabed Authority, che attualmente sta rivedendo il proprio codice minerario. L'attenzione potrebbe spostarsi dall'estrazione presso le sorgenti termali attive, che rischia di distruggere le specie associate, allo sfruttamento dei solfuri in luoghi senza segni visibili di flusso di fluido idrotermale o organismi dipendenti dai camini, ma questa conclusione non è ancora garantita. Le azioni che saranno intraprese nel prossimo futuro determineranno se la frontiera della scoperta a sorgenti termali aperta da Corliss e colleghi 40 anni fa passerà dall'esplorazione allo sfruttamento. il 4 marzo 2019. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati) |
Post n°2170 pubblicato il 29 Aprile 2019 da blogtecaolivelli
fonte: Le Scienze Afferrare un oggetto per passarlo a un'altra persona è un gesto semplice per gli esseri umani ma non per i robot, che hanno parecchi problemi a eseguirlo. Un nuovo studio, effettuato alla Scuola Superiore Sant'Anna di Pisa in collaborazione con ricercatori australiani, ha ora definito i principi che guidano la presa giusta per compiere il gesto, aprendo la strada a una collaborazione migliore tra uomo e macchina (red)
fonte: Le Scienze I principi guida che regolano il modo in cui si afferra un oggetto per passarlo a un altro sono stati definiti da ricercatori dell'Istituto di biorobotica della Scuola Superiore Sant'Anna di Pisa, con la collaborazione del centro per la visione robotica del Politecnico del Queensland a Brisbane, che li illustrano in un articolo su "Science Robotics". Il risultato permetterà di ottenere una migliore cooperazione tra gli esseri umani e i robot, sempre più presenti nella nostra vita quotidiana © Scuola Superiore Sant'AnnaUno dei punti più delicati dell'interazione fra robot è il passaggio di oggetti. Lungi dall'essere un compito semplice, l'atto coinvolge pesantemente e in contemporanea sia i sistemi di controllo sensoriale che quelli motori, ed è influenzato da molti fattori relativi all'oggetto (forma, dimensione e funzione), al compito (entità dello spostamento), ai vincoli della presa (dimensioni della mano umana o della pinza, forza della presa) e a vincoli casuali (la posizione iniziale dell'oggetto). a qualcuno che lo deve usare - spiega Francesca Cini, prima firmataria dell'articolo - lasciamo libero il manico per facilitare la presa e l'uso dell'oggetto. Lo scopo della nostra ricerca è trasferire tutti questi principi guida a un sistema robotico." e attuata la presa, i ricercatori hanno chiesto ad alcune coppie di persone di afferrare e passarsi una serie di oggetti - per esempio una penna chiusa e una aperta, una chiave, un cacciavite, un bicchiere pieno e uno vuoto, un oggetto leggero come un foglio e uno pesante - che hanno ripreso con delle telecamere per poi analizzare fotogramma per fotogramma i movimenti e la direzione degli sguardi. una serie di parametri, per esempio le condizioni che inducono a preferire una presa di precisione o una di potenza (caratterizzate da differenti posizioni delle falangi), e di notare che nel passaggio dell'oggetto da una persona all'altra era sistematicamente preferita la presa di precisione, che lascia al ricevente abbastanza spazio per afferrare comodamente l'oggetto. di robot progettati per interagire con gli esseri umani in modo naturale", ha concluso Marco Controzzi, coautore dello studio. "Questi risultati ci permetteranno di istruire il robot a manipolare gli oggetti attraverso l'introduzione di semplici regole." |
Post n°2169 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 24 gennaio 2019 Nasce il primo viticcio artificiale in grado di arrampicarsi Comunicato stampa - E' un robot soffice ispirato alle piante rampicanti, realizzato dal gruppo di ricerca coordinato da Barbara Mazzolai. Il lavoro pubblicato su Nature CommunicationsIIT-Istituto Italiano di Tecnologia: 24 gennaio 2019, Pontedera (Pisa) - Ottenuto in Italia il primo robot che imita il comportamento dei viticci, arrotolandosi a spirale intorno a un supporto: è un robot soffice che si muove sfruttando lo stesso principio fisico che fa muovere l'acqua nei tessuti delle piante rampicanti ed è stato realizzato dai ricercatori del Centro di Micro-BioRobotica dell'IIT-Istituto Italiano di Tecnologia a Pontedera (Pisa), guidati da Barbara Mazzolai. Il lavoro è stato descritto nella rivista Nature Communications, e in futuro potrebbe essere d'ispirazione per lo sviluppo di dispositivi indossabili, come tutori, in grado di cambiare forma. i ricercatori Edoardo Sinibaldi e Indrek Must, tutti con una formazione e competenze complementari: Must è un tecnologo dei materiali con un dottorato in ingegneria e tecnologia, Sinibaldi un ingegnere aerospaziale con un dottorato in matematica applicata, Mazzolai una biologa con un dottorato in ingegneria dei microsistemi. Mazzolai è stata tra le 25 donne geniali della robotica nel 2015 secondo RoboHub, ed è autrice del primo robot pianta al mondo, il Plantoide. mento delle piante, le quali non sono affatto esseri immobili. Per esempio, le radici crescono bilanciando la ricerca di nutrienti con la necessità di evitare ostacoli e sostanze dannose. Inoltre, non potendo scappare - diversamente dagli animali, le piante quando si muovono, in realtà "crescono", si allungano, adattando continua- mente la loro morfologia all'ambiente esterno. Tale "crescita" è quello che accade nei viticci delle piante rampicanti, che sono in grado di arrotolarsi e srotolarsi attorno a supporti esterni per favorire il benessere della pianta stessa. meccanismi naturali grazieai quali le piante sfruttano il trasporto dell'acqua al loro interno per muoversi e li hanno replicati in un robot soffice. Il principio idraulico in questione si chiama "osmosi" e si basa sulla presenza di piccole particelle presenti nel liquido (citosol) contenuto all'interno delle cellule della pianta. L'osmosi determina il movimento dei viticci. modello matematico, che ha determinato le dimensioni del robot affinché i movimenti guidati dall'osmosi non fossero troppo lenti. Il robot ha quindi acquisito la forma di un piccolo viticcio, in grado di compiere movimenti reversibili - arrotolamento e srolotamento - come fanno anche le piante. con un tubo flessibile di PET (un comune polimero spesso usato anche per contenere alimenti), all'interno del quale è presente un liquido con ioni. Sfruttando una batteria da 1.3 Volt, gli ioni vengono attirati e immobilizzati sulla superficie di elettrodi flessibili alla base del viticcio, dando vita a un processo osmotico e causando, così, il movimento del liquido stesso, da cui lo srotolamento del viticcio artificiale. L'arrotolamento si ottiene rimuovendo l'effetto della batteria, sfruttando il circuito elettrico in cui essa è inserita. sfruttare l'osmosi per azionare movimenti reversibili. Il fatto di esserci riusciti usando una comune batteria e dei tessuti flessibili suggerisce la possibilità di creare robot soffici facilmente adattabili all'ambiente circostante, senza creare danni a oggetti o esseri viventi. Le possibili applicazioni potranno spaziare dalle tecnologie indossabili allo sviluppo di braccia robotiche flessibili per esplorazione. La sfida nell'imitare le capacità delle piante di muoversi in ambienti mutevoli e non strutturati è appena iniziata. sono coinvolti in nuovo progetto, il progetto GrowBot, finanziato dalla Commissione Europea nell'ambito del programma FET Proactive che prevede lo sviluppo di un robot che, non solo sia in grado di riconoscere le superfici a cui attaccarsi o i supporti a cui ancorarsi, ma riesca a farlo mentre cresce e si adatta all'ambiente circostante. Proprio come fanno in natura le vere piante rampicanti. |
Post n°2168 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 30 luglio 2018
L'itterbio, un elemento delle cosiddette terre rare, è l'ideale per realizzare memorie quantistiche in grado di intrappolare e sincronizzare ad alta frequenza i fotoni che garantiscono una crittografia delle comunicazioni digitali(red) Una rete di computer che basano il loro funzionamento sulla meccanica quantistica, con una capacità di calcolo inarrivabile per le macchine attuali basate sull'elettronica. E anche impossibili da violare senza distruggere l'informazione stessa. da oggi sembra più vicino, grazie al risultato descritto su "Nature Materials" da ricercatori dell'Università di Ginevra in collaborazione con il CNRS francese. Cuore del risultato è una memoria quantistica a base dell'elemento chimico itterbio, che soddisfa importanti richieste tecniche che erano fuori portata. lunghe centinaia di chilometri, protette da un elevato grado di sicurezza. Chi volesse infatti copiare o intercettare l'informa- zione che trasmettono determinerebbe la scomparsa dell'informazione stessa. La volatilità dell'informazione veicolata da questi sistemi rende tuttavia anche impossibile amplificare il segnale e propagarlo su distanze ancora più lunghe. Particolare del dispositivo che ha testato la nuova memoria a base di itterbio. (Cortesia: Unige) Per aggirare il problema, i ricercatori stanno lavorando su memorie quantistiche in grado di catturare i fotoni che viaggiano attraverso le fibre ottiche e di sincronizzarli in modo da poterli diffondere su distanze sempre più grandi. Ma finora è mancato un materiale giusto per questo scopo. di isolare dai disturbi ambientali l'informazione quantistica veicolata dai fotoni, in modo da tenerli fermi per un secondo circa e poterli sincronizzare", ha commentato Mikael Afzelius, coautore dello studio. "Inoltre, bisogna considerare che i fotoni viaggiano a quasi 300.000 chilometri al secondo". assai ben isolato dal contesto e in grado di immagazzinare ripetutamente fotoni con un'altissima frequenza. E queste due richieste sono in contrasto tra loro. campo d'indagine è usare qualche membro delle cosiddette terre rare, un gruppo di 17 elementi. Alcuni test effettuati in passato con elementi come europio e praseodimio però avevano dato risultati negativi. aveva ricevuto scarsa attenzione: l'itterbio, che ha numero atomico 70", ha spiegato Nicolas Gisin. Collocando l'itterbio in un campo magnetico con caratteristiche opportune gli autori hanno osservato che l'atomo di questo elemento diventa insensibile ai disturbi ambientali. Ciò lo rende la soluzione ideale per intrappolare i fotoni e sincronizzarli. magico' variando l'ampiezza e la direzione del campo magnetico: in corrispondenza di questo punto, il tempo di coerenza dell'itterbio, cioè il tempo medio dopo il quale l'atomo viene disturbato dall'ambiente circostante, aumenta di oltre 1000 volte, pur lavorando ad alte frequenze. realizzare memorie e reti quantistiche a base d'itterbio. di ottenere un network quantistico globale: è da sottolineare quanto sia importante in questo tipo di studi portare avanti la ricerca fondamentale parallelamente a quella applicativa", hanno concluso i ricercatori. |
Post n°2167 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 11 maggio 2018
La capacità di fare generalizzazioni a partire da singole esperienze è essenziale per la sopravvivenza, ma se la generalizzazione è sbagliata - troppo ampia o troppo limitata - può avere l'effetto contrario. Una nuova teoria sui fondamenti di questa capacità, perfezionando modelli precedenti, potrebbe permettere di applicarla in modo corretto anche nei sistemi di intelligenza artificiale(red) comportamentopsicologiacomputer science Un nuovo modello matematico della nostra capacità di generalizzare a partire dalle esperienze è stato proposto da Chris R. Sims, ricercatore del Rensselaer Polytechnic Institute a Troy, nello stato di New York, in un articolo pubblicato su "Science". Lo studio si inserisce nel filone delle ricerche per rendere sempre più accurati gli algoritmi usati nell'intelligenza artificiale e in particolare nell'apprendimento automatico. essenziale per la sopravvivenza. Per esempio, se un uccello mangia una farfalla velenosa o sgradevole, imparerà rapidamente a evitare tutti gli insetti che le assomigliano. o due specie di farfalle esattamente uguali. Se la generalizzazione è troppo limitata, l'uccello continuerà a consumare farfalle tossiche. Se invece la generalizzazione è troppo ampia, portandolo a evitare tutte le farfalle, si priverà inutilmente di una fonte alimentare, riducendo la propria fitness, ossia la capacità adattativa all'ambiente. © Biosphoto / AGFNel 1987 lo psicologo cognitivista Roger N. Shepard propose quella che chiamò "legge universale di generalizzazione", secondo cui la probabilità che la risposta a uno stimolo sia generalizzata a un altro stimolo diminuisce in base a una funzione esponenziale della loro distanza all'interno di un appropriato "spazio psicologico". distanza fra due stimoli è stato possibile testare la validità della legge di Shepard. Tuttavia, pur funzionando bene in molte situazioni, questi modelli incontrano delle difficoltà via via che lo stimolo è più complesso e l'ambiente è "rumoroso",ossia fonte di possibili fattori che confondono: un difetto che diventa particolarmente evidente negli algoritmi utilizzati nei sistemi di i ntelligenza artificiale. (Basti pensare agli algoritmi di Facebook che cancellano un'immagine di nudo generalizzandola come pornografica anche se magari è la Primavera di Botticelli). della legge universale di generalizzazione che parte da una prospettiva differente. In particolare, dimostra che la forza della generaliz- zazione è strettamente legata al costo dell'errore percettivo che può provocare: per esempio, portando l'uccello a considerare velenosa la farfalla mentre è commestibile, o al contrario a ritenerla innocua quando lo è. sul cosiddetto principio di codifica efficiente, secondo il quale - date alcune limitazioni, come la quantità di memoria disponibile e l'incertezza nelle informazioni sensoriali - i sistemi biologici sono ottimizzati per impiegare le minori risorse di elaborazione possibile per ottenere le massime prestazioni. In parole povere, per ottenere il massimo del risultato al minimo del costo. Shepard, dovrebbe essere possibile far compiere un ulteriore salto di qualità agli algoritmi usati nei sistemi di intelligenza artificiale, mettendoli in grado di effettuare generalizzazioni corrette. |
Post n°2166 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 11 aprile 2019 L'analisi di frammenti di ossa e di denti scoperti in una grotta del paese del Sudest asiatico hanno rivelato una specie di piccola statura, vissuta oltre 50.000 anni fa, che i ricercatori hanno chiamato Homo luzonensis. I resti provengono da almeno due adulti e un bambino antropologiaevoluzionepaleontologia L'albero genealogico umano ha visto spuntare un altro ramo, dopo che alcuni ricercatori hanno portato alla luce i resti di una specie di ominini precedentemente sconosciuta in una grotta delle Filippine. Gli scienziati hanno chiamato la nuova specie, che probabilmente era di piccola corporatura, Homo luzonensis. riaccenderà i dibattiti sull'epoca in cui gli antichi parenti degli esseri umani hanno lasciato l'Africa. E l'età dei resti - probabilmente risalenti a 50.000 anni fa - suggerisce che diverse specie umane sono coesistite in tutto il Sudest asiatico. più di un decennio fa, quando alcuni ricercatori hanno riferito la scoperta di un osso del piede risalente ad almeno 67.000 anni fa nella grotta di Callao, sull'isola di Luzon, nelle Filippine. I ricercatori non erano sicuri di quale specie fosse l'osso, ma hanno riferito che somigliava a quello di un piccolo Homo sapiens. Una delle falangi del piede scoperte nella grotta di Callao e analizzate nello studio. (Credit: Callao Cave Archaeology Project)Ulteriori scavi della grotta di Callao hanno scoperto un femore, sette denti, due ossa del piede e due ossa della mano con caratteristiche diverse da quelle di altri parenti umani, sostiene il gruppo, co-diretto da Florent Détroit, paleoantropologo del Museo nazionale di storia naturale di Parigi. I resti provengono da almeno due adulti e un bambino. argomentazione a favore della conclusione che si tratti di qualcosa di nuovo", afferma Matthew Tocheri, paleoantropologo della Lakehead University di Thunder Bay, in Canada. a essere identificata nel Sudest asiatico in anni recenti. Nel 2004, un altro gruppo ha annunciatola scoperta di Homo floresiensis - noto anche come lo Hobbit - una specie che probabilmente superava di poco il metro di altezza, sull'isola indonesiana di Flores. grotta di Callao sono diversi da quelli diH. floresiensis e altri ominini - inclusa una specie chiamata Homo erectus, che si ritiene sia stata il primo antenato degli esseri umani a lasciare l'Africa, circa due milioni di anni fa. piccoli rispetto a quelli di altri antichi antenati umani. Le cuspidi dei molari, come quelle di H. sapiens, non sono tanto pronunciate quanto nei precedenti ominini. La forma dello smalto interno dei molari è simile a quella di entrambi gli esemplari di H. sapiens e H. erectus trovati in Asia. I premolari scoperti nella grotta di Callao sono piccoli ma ancora nell'intervallo di quelli di H. sapiens e H. floresiensis. Ma gli autori riferiscono che la dimensione complessiva dei denti, così come il rapporto tra dimensione dei molari e dei premolari, è diversa da quella degli altri membri del genere Homo. una forma peculiare. Somigliano più a quelle dell'Australopithecus, ominini primitivi, inclusa la famosa fossile Lucy, che si ritiene non abbiano mai lasciato l'Africa. Le curvature delle ossa dei piedi e di un osso di un dito di H. luzonensissuggeriscono che la specie potrebbe essere stata abile nell'arrampicarsi degli alberi. luzonensis, perché i resti disponibili sono pochi. Ma considerati i suoi piccoli denti, e l'osso del piede descritto nel 2010, Détroit pensa che le sue dimensioni corporee fossero nell'intervallo di quelle di piccoli H. sapiens, come i membri di alcuni gruppi etnici indigeni che vivono a Luzon e altrove nelle Filippine ancora oggi, a volte noti collettivamente come Negritos delle Filippine. Gli uomini di questi gruppi che vivono a Luzon hanno un'altezza media di circa 151 centimetri e le donne di circa 142 centimetri. inserisca nell'albero genealogico umano. Détroit è a favore dell'idea che la nuova specie discenda da un gruppo di H. erectus i cui corpi si sono evoluti gradualmente in forme diverse da quelle dei loro antenati. evolutive", afferma il paleontologo Gerrit van den Bergh dell'Università di Wollongong in Australia. "Possiamo immaginare H. erectus che arriva su isole come Luzon o Flores, e non ha più bisogno di impegnarsi nella corsa di resistenza, ma ha bisogno di adattarsi a passare la notte sugli alberi". Due premolari e tre molari attribuiti a H. luzonensis. Date le somiglianze della specie con l'Australopithecus, Tocheri si chiede se gli abitanti della grotta di Callao fossero i discendenti di una linea emigrata dall'Africa prima di H. erectus. aiutare gli scienziati a identificare la relazione della specie con altri ominini, ma finora gli sforzi per estrarre il DNA da H. luzonensis sono falliti. Tuttavia, ossa e denti sono stati datati ad almeno 50.000 anni fa. Ciò suggerisce che la specie probabilmente girovagava nel Sudest Asiatico nelle stesse epoche di H. sapiens, H. floresiensis e un misterioso gruppo noto come Denisova, il cui DNA è stato trovato negli esseri umani contemporanei nel Sudest Asiatico. di sorprese paleontologiche che complicano i semplici scenari di evoluzione umana", afferma William Jungers, paleoantropologo della Stony Brook University di New York. pubblicato su "Nature" l'11 aprile 2019. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati.) |
Post n°2165 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 02 novembre 2018 L'imperfezione che rende affidabili i qubit Un progresso fondamentale verso i computer quantistici è stato ottenuto usando fibre ottiche nanoscopiche in silicio organizzate in un reticolo in cui l'uniformità dello schema viene alterata da un'imperfezione, che rende più stabile la correlazione tra fotoni che codificano l'informazione binaria quantistica, i qubit(red) Fotoni che viaggiano attraverso un reticolo imperfetto di fibre ottiche di dimensioni nano- scopiche possono essere utilizzati per realizzare unità affidabili per la costruzione dei futuri computer quantistici. Lo dimostra un nuovo studio pubblicato su "Science" da ricercatori dell'Università di Sidney, in Australia, guidati da Andrea Blanco-Redondo, in collaborazione con colleghi dell'Università di Haifa, in Israele, e di Oxford, nel Regno Unito. La transizione dai computer elettronici a quelli quantistici è basata su una trasformazione fondamentale nella modalità di codifica dei bit, le unità d'informazione binaria, che possono assumere due soli valori, indicati convenzional- mente come 0 e 1. I progressi degli ultimi decenni nella manipolazione di oggetti del mondo microscopico, dominato dalle leggi della meccanica quantistica, hanno aperto la strada a un nuovo modo di gestire l'informazione, in cui a codificarla sono gli stati di un microsistema, per esempio di elettroni o di atomi ionizzati. alcuni stati fondamentali, ma anche una loro sovrapposizione quantistica. quindi di avere non solo 0 e 1, ma anche un numero virtualmente infinito di loro combinazioni, ampliando enormemente le capacità di calcolo di una macchina basata su queste unità di base. di spin, su e giù, ma anche una combinazione di questi stati, e quindi parrebbe uno dei sistemi più naturali per codificare un qubit. in questo senso. Fin da subito però si è capito che uno dei problemi fondamentali per arrivare a un sistema di calcolo automatico basato su elettroni o su atomi ionizzati è che vengono facilmente influenzati dall'ambiente circostante, per esempio dalle interferenze elettromagnetiche o dalla temperatura. consiste nell'utilizzare fotoni, i quanti di luce, al posto degli elettroni e degli ioni. da una peculiare correlazione quantistica nota come entanglement, in cui due particelle stabiliscono una correlazione quantistica che si mantiene anche quando fra di esse viene frapposta una distanza arbitraria. Quando si esegue una misurazione dello stato di una particella, questo stato "precipita" assumendo un valore ben definito. E questa operazione fa collassare su un valore definito anche la particella trasportata lontano, in modo istantaneo, anche se in effetti non c'è stato un scambio di informazione tra le due. limitazioni, perché l'entanglement può venire meno per vari fenomeni diffusivi incontrati dai fotoni nel loro tragitto. risolvere questi limiti con guide d'onda, in cui passano i fotoni, formate da nanocavi si silicio con un diametro di soli 500 nanomentri (miliardesimi di metro) allineati lungo cammini appaiati secondo uno schema a reticolo uniforme a cui però viene aggiunto un difetto. a imporre ai fotoni modalità di appaiamento particolari, note come modi di bordo (edge modes). Questi modi permettono di trasportare l'informazione con un grado di affidabilità inarrivabile per un reticolo uniforme, e così di proteggere i qubit. |
Post n°2164 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 04 aprile 2019 L'alleanza fra virus e batteri che distrae il sistema immunitario Il batterio Ps. aeruginosa, responsabile di molte infezioni negli ospedali, inganna il sistema immunitario usando un virus per attirarlo lontano da sé. La scoperta potrebbe spiegare perché il nostro corpo tollera la presenza di alcuni microbidi Sara Reardon / Nature Un batterio responsabile del 10 per cento circa delle infezioni contratte in ospedale negli Stati Uniti sfrutta un virus per indurre il sistema immunitario a ignorarlo. Pseudomonas aeruginosa, che spesso resiste alla terapia antibiotica. Il fago - riferiscono i ricercatori su "Science" - induce il sistema immunitario a inseguirlo, ignorando invece il microrganismo. Il batterio e il fago, chiamato Pf, esistono in una relazione simbiotica che gli scienziati sospettano sia più diffusa nel mondo microbico di quanto si creda. La scoperta potrebbe aiutare a spiegare perché il sistema immunitario tolleri batteri utili, come quelli nell'intestino, e portare a migliori terapie contro le infezioni. Pseudomonas aeruginosa (© Science Photo Library / AGF) Anche se alcuni fagi uccidono i loro ospiti batterici, altri prosperano al loro interno senza ucciderli. I ricercatori hanno sospettato a lungo che questa coesistenza indichi che i batteri si avvantaggino in qualche modo della presenza dei virus. i batteri interagiscono con i loro ospiti, l'immunologo Paul Bollyky della Stanford University, ha raccolto tamponi dalle ferite croniche (per esempio, ustioni infette) di 111 persone. Di queste, 37 ferite erano state infettate da P. aeruginosa. delle infezioni da P. aeruginosa era presente il virus Pf. Quando Bollyky e colleghi hanno trasferito i batteri infettati dal fago in ferite aperte sui topi, hanno scoperto che per scatenare un'infezione bastavano meno batteri e che i roditori avevano maggiori probabilità di morire rispetto a quando il trasferimento avveniva con P. aeruginosa senza Pf. chiamate fagociti,che inglobano e distruggono i batteri ma evitano i virus. Tuttavia, quando i fagociti attaccavano le ferite infettate da P. aeruginosa e Pf, poi si allontanavano dalla zona abbastanza presto, dopo aver distrutto solo pochi batteri. Nel frattempo, i fagociti che avevano ingerito i batteri infetti rilasciavano segnali che attirano in loco cellule immunitarie che attaccano esclusivamente i virus. la combinazione batterio-virus, il team è riuscito a ridurre le infezioni indotte da P. aeruginosa. umani producendo RNA a doppio filamento, che innesca l'attacco del sistema immunitario. Secondo Bollyky, meccanismi simili potrebbero in parte spiegare perché il sistema immunitario tolleri batteri normali e utili che vivono nel nostro corpo. batteriofagi Pf. (Cortesia University of Montana) "È un articolo rivoluzionario", dice Andrzej Górski, batteriologo all'Accademia polacca delle scienze a Breslavia. Altre ricerche avevano indicato che i fagi influenzano l'infiammazione e che potrebbero avere un ruolo nella prevenzione delle allergie, ma Górski dice che questo articolo è il primo a mostrare in che modo i fagi danneggiano la salute umana. Questi virus non si limitano a distruggere i batteri, possono anche influenzare il sistema immunitario di una persona, nel bene o nel male, dice Górski. Colorado ad Aurora, definisce la scoperta "stupefacente". Dice che i ricercatori ora saranno costretti a pensare in modo più aperto al microbioma, il complesso dei batteri nel corpo umano. "Penso che aggiunga alle interazioni ospite- microbioma un livello di complessità finora ampiamente trascurato". lavorando agli aspetti clinici più immediati della scoperta. Hanno brevettato il vaccino Pf e lo stanno testando su suini con ustioni o ferite cutanee. trattasse di un virus umano, come l'influenza o l'epatite, spiega Bollyky. Vogliono decifrare in che modo Pf interagisce con il corpo e scoprire se prenderlo di mira permette di curare meglio le infezioni. Ma Bollyky spera che altri gruppi inizino a cercare ulteriori coppie batterio-virus che funzionano in modo simile. "Nature" il 28 marzo 2019. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati.) |
Post n°2163 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 29 marzo 2019 Novanta specie di anfibi estinte e 500 in drammatico calo demografico nel giro di 50 anni: è il drammatico bilancio della diffusione di un temibile fungo patogeno al di fuori della sua area d'origine, trasportato in tutto il mondo dal commercio di specie esotiche animalibiodiversitàmicrobiologia Il commercio delle specie esotiche è responsabile della diffusione in tutto il mondo di un fungo patogeno originario dell'Asia che oggi rappresenta la più grave sfida alla sopravvivenza degli anfibi e delle rane in particolare. dell'Australian National University a Canberra, che ha coordinato uno studio sul fungo pubblicato su "Science" - stanno spostando piante e animali in tutto il mondo a un ritmo sempre più rapido, introducendo agenti patogeni in nuove aree", con effetti disastrosi. drammatico calo demografico di oltre 500 specie e l'estinzione di 90, provocando la maggiore perdita di biodiversità dovuta a una malattia mai registrata negli annali della biologia. Rana della specie centro-americana Duellmanohyla soralia, a rischio estinzione. (Cortesia Jonathan E. Kolby, Honduras Amphibian Rescue & Conservation Center)La malattia, chiamata chitridiomicosi, è provocata dai funghi del genere Batrachochytrium - in particolare da B. dendrobatidis e B. salamandrivorans - e degrada la cheratina della cute, portando rapidamente alla morte gli animali. paesi, e ha colpito con particolare virulenza l'Australia - dove in 30 anni ha portato al declino di oltre 40 specie e all'estinzione di tre - e l'America centrale e meridionale, dove hanno subito un forte declino 448 specie. (In Africa, Nord America ed Europa sono interessate rispettivamente 14, 10 e 5 specie.) L'unica parte del mondo in cui negli ultimi anni non c'è stato un declino degli anfibi dovuto a questo patogeno è l'Asia, il continente d'origine del fungo, le cui specie locali sembrano avere acquisito nei secoli una certa resistenza alla malattia. ottanta, ma in seguito solo il 12 per cento delle specie colpite ha mostrato segni di ripresa, mentre il 39 per cento continua a declinare. ad alto rischio di estinzione da chitridiomicosi nei prossimi 10-20 anni e purtroppo, osserva Scheele, "è estremamente difficile eradicare questi funghi da un ecosistema: una volta che ci sono arrivati, sono lì per restare. Alcune specie hanno la fortuna di essere resistenti ai funghi chitridi; ma questo significa che quelle specie, trasportando il fungo, fanno da serbatoio e rappresentano una costante fonte di patogeni nell'ambiente". Rana della specie sudamericana Gastrotheca testudinea. (Cortesia Tiffany Kosch)Sapere quali sono le specie a rischio può tuttavia aiutare a sviluppare azioni di conservazione per prevenire l'estinzione. In Australia, un programma di conservazione mirato e lo sviluppo di nuove tecniche di reintroduzione ha permesso di salvare alcune specie di anfibi. tra cui la chitridiomicosi, stanno contribuendo alla sesta estinzione di massa della Terra", ha concluso Scheele. "Dobbiamo fare tutto il possibile per fermare future pandemie, migliorando la biosicurezza e la regolamentazione del commercio della fauna selvatica in tutto il mondo." (red) |
Post n°2162 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 04 aprile 2019 Quello è il mio nome, parola di gatto I gatti domestici sanno riconoscere il proprio nome in base alla sua struttura fonetica, distinguendolo da parole della stessa lunghezza e pronunciate con la stessa intonazione, e indipendentemente da chi lo pronuncia I gatti domestici sanno distinguere perfettamente il proprio nome dalle altre parole, compresi i nomi di altri gatti. piccoli felini, ma un conto è fare appello alla propria esperienza, un altro dimostrare scientificamente che i gatti sono in grado di riconoscere il complesso fonetico del loro nome, e non solo di reagire all'intonazione con cui è pronunciato o a fattori come la direzione dello sguardo. A dissipare i dubbi è uno studio condotto da un gruppo di ricercatori dell'Università di Tokyo, che firmano un articolo su "Nature Scientific Reports". esame 78 gatti provenienti da diverse famiglie giapponesi e da un neko cafè (neko vuol dire gatto in giapponese), un tipo di locale pubblico particolarmente diffuso in Giappone in cui la consumazione è allietata dalla presenza di un certo numero di questi animali. La vetrina di un neko cafè a Tokyo. Questo tipo di locale, dove i gatti circolano liberamente e i clienti possono accarezzarli e giocare con loro, è particolarmente diffuso in Giappone ma sta prendendo piede anche in Italia (© agefotostock / AGF) Dagli esperimenti condotti è risultato che i gatti erano in grado di distinguere il proprio nome da parole che avevano la stessa lunghezza, pronunciate con la stessa intonazione e lo stesso volume, e indipendentemente dalla persona che le pronunciava, anche se si trattava di un perfetto estraneo. i ricercatori hanno registrato il movimento delle orecchie, della testa e della coda, le eventuali vocalizzazioni e spostamenti, e l'entità di quella reazione. In ogni prova venivano pronunciate quattro parole, evitando che il nome dell'animale fossa la prima: questo perché di fronte a un suono iniziale gli eventuali movimenti avrebbero potuto essere solo una reazione di allerta, reazione che però tende a scemare con le parole successive. Un aumento della reazione, soprattutto alla terza o alla quarta parola, indica quindi che quel suono ha qualcosa di particolare. stata poi affidata a una decina di ricercatori che non avevano assistito ai test e che disponevano solo della registrazione video priva di audio, in modo da garantire che non fossero influenzati dall'ascolto delle parole stimolo. (red) |
Post n°2161 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 27 marzo 2019 La ricetta Telethon per l'editing genetico Saranno le immunodeficienze il banco di prova prescelto dai ricercatori dell'Istituto San Raffaele Telethon per la Terapia Genica (SR-Tiget) per effettuare la loro prima sperimentazione clinica con le nuove biotecnologie di precisionedi Anna Meldolesi /CRISPerMANIA I dati sono rassicuranti. Le tecniche sono mature. E l'istituto San Raffaele Telethon per la Terapia Genica (SR-Tiget) è quasi pronto per il debutto. "Non abbiamo ancora una data. Ma nel breve periodo il nostro istituto conta di avviare la prima sperimentazione clinica con l 'editing del DNA". Ce lo rivela Raffaella Di Micco, group leader all'SR-Tiget e coautrice di uno studio uscito recentemente su "Cell Stem Cell" in collabora- zione con il team di Luigi Naldini. del sangue. Con il protocollo che abbiamo ottimizzato non riscontriamo instabilità genomica né mutazioni indesiderate. Il cocktail che abbiamo messo a punto dovrebbe già garantire un beneficio terapeutico nel campo delle malattie rare. Perciò il prossimo passo sarà vedere la risposta nell'uomo", ci ha detto la ricercatrice commentando con noi gli ultimi dati. su cui l'SR-Tiget non ha rivali al mondo, essendo già riuscito nell'impresa di portare in commercio la prima terapia genica classica: il trattamento Strimvelis, sviluppato nell'era pre-CRISPR per i pazienti affetti da ADA-SCID. Nel frattempo altri gruppi hanno incontrato difficoltà a replicare quel successo di terapia genica "tradizionale" su un altro tipo di immunodeficienza severa combinata, trasmissibile con il cromosoma X e detta SCID-X1. l'editing ha il grosso vantaggio di garantire un'espressione più controllata del gene terapeutico. La migliore precisione dovrebbe consentire di correggere il difetto genetico con maggiore efficacia e sicurezza", sostiene Di Micco. In cima alla lista delle malattie candidate, dunque, c'è la SCID-X1, in compagnia di un'altra immunodeficienza: la sindrome da iper-IgM. "Comunque il lavoro che abbiamo pubblicato è una dimostrazione di fattibilità, lo stesso approccio può trovare altre applicazioni". mediche a Napoli, per poi specializzarsi tra Milano e New York, e da tre anni è stata chiamata all'istituto diretto dal pioniere della terapia genica Naldini, con la missione di studiare come le cellule rispondono al danno del DNA e contribuire allo sviluppo di nuove terapie avanzate. Lavorando insieme, hanno dimostrato di poter inserire in modo affidabile una sequenza correttiva nelle cellule staminali ematopoietiche. l'utilizzo di una scarica elettrica per far entrare nelle cellule tre ingredienti terapeutici: la piattaforma per l'editing genomico (costituita dall'enzima che taglia il DNA, opportunamente programmato per trovare il giusto bersaglio), un vettore virale detto AAV6 che trasporta la sequenza da introdurre in corrispondenza del taglio e, a parte, un terzo elemento opzionale. Si tratta di un trascritto con le istruzioni per sintetizzare una molecola che destabilizza la proteina p53, nota anche come "il guardiano del genoma". aggirato un ostacolo emerso lo scorso anno in popolazioni cellulari diverse e descritto da due gruppi indipendenti su "Nature Medicine". Quando l'editing produce la rottura del DNA, le cellule attivano un kit di pronto intervento che vede come protagonista il p53 e può avviare le cellule editate alla distruzione. Per fortuna i ricercatori dell'SR-Tiget hanno appurato che, almeno per le staminali emato- poietiche, il problema è limitato e risolvibile. taglio per far scattare l'allarme, ma la risposta si risolve nel giro di poche ore quando la lesione viene riparata e alla fine le cellule conservano la piena funzionalità", assicura la ricercatrice. Se oltre a tagliare il DNA si fornisce una sequenza correttiva, utilizzando un vettore virale, la reazione difensiva è più forte, ma l'SR-Tiget ha dimostrato di poterla controllare inibendo il p53. Nel giro di un giorno o due l'arresto proliferativo si sblocca e, trapiantando le cellule editate nel topo, si osserva che un maggior numero di cellule corrette si localizza nel midollo, per la ricostituzione del sistema ematopoietico. rispetto alla tecnica di editing genomico precedente, ma nel nostro modello funziona bene anche la piattaforma zinc finger, che ha il vantaggio di essere stata studiata più a lungo", spiega Di Micco. Da quando CRISPR è arrivata sulla scena ha conquistato tutti i riflettori per la sua versatilità, mentre il metodo delle "dita di zinco" è rimasto nell'ombra pur non essendo obsoleto. i risultati delle due tecnologie sono paragonabili, ciò che conta è la specificità dell'enzima che effettua il taglio, indipendentemente da quale piattaforma viene utilizzata", sostiene la ricercatrice. Scegliere l'una o l'altra sarà una decisione strategica, da prendere insieme agli sponsor dei trial clinici futuri, valutando anche gli aspetti di natura brevettuale. Intanto ci sono altre sperimentazioni di editing in cellule staminali ematopoietiche che stanno già reclutando i primi pazienti in diversi paesi del mondo: il database clinicaltrials.gov ne conta già tre con zinc finger e due basate su CRISPR. nel blog CRISPerMANIA il 27 marzo 2019. Riproduzione autorizzata, tutti i diritti riservati.) |
Post n°2160 pubblicato il 29 Aprile 2019 da blogtecaolivelli
28 marzo 2019 I fiumi di Marte non sono così antichi La superficie di Marte è solcata dai letti di antichi fiumi, che furono numerosi ed ebbero una notevole portata fino a meno di un miliardo di anni fa, cioè fino a un'epoca più recente di quanto stimato finora. Lo rivela un nuovo studio basato sui modelli di elevazione della superficie del Pianeta Rosso, che solleva nuove questioni sulla sua storia idrogeologica Marte è un pianeta desertico. Ma ci fu un tempo in cui la sua superficie era solcata da fiumi, la cui portata era maggiore di quella degli attuali corsi d'acqua sulla Terra. guidati da Edwin Kite ha realizzato un modello, descritto su "Science Advances", di come doveva apparire la struttura orografica del Pianeta Rosso nel suo antico passato, stabilendo che in centinaia di regioni marziane esistevano dei fiumi quasi certamente fino a 3 miliardi di anni fa e probabilmente fino a meno di un miliardo di anni fa. La scoperta indicherebbe che il processo di desertificazione di Marte è avvenuto molto più di recente rispetto a quanto stimato finora. Immagine in falsi colori della superficie di Marte solcata dal letto di un atico fiume: in giallo, le parti più elevate, in blu quelle meno elevate (Credit: NASA/JPL/Univ. Arizona/UChicago) Ricostruire l'antico aspetto di Marte è un po' ome intuire l'immagine complessiva di un puzzle a partire da poche tessere. Il rompicapo più impegnativo, ma anche uno dei più affascinanti, riguarda la presenza di acqua liquida, strettamente connessa al clima. L'atmosfera del pianeta è molto rarefatta e la sua superficie iniziò presto a ricevere meno di un terzo della radiazione solare che raggiunge oggi la Terra. l'acqua liquida non è durato molto: la maggior parte delle prove scientifiche indica che, per gran parte della sua storia, il pianeta è stato estremamente freddo e arido. fiumi di Marte: sono le fotografie catturate dalle diverse missioni che hanno orbitato intorno al pianeta e quelle del Rover Curiosity, che ne ha raggiunto la superficie nel 2012. Queste immagini mostrano moltissime tracce di fiumi prosciugati, da cui sono stati ricavati centinaia di modelli di elevazione, cioè rappresentazioni digitali della distribuzione delle quote della superficie. dei letti, come larghezza e pendenza, e dei ciottoli che vi sono depositati, Kite e colleghi hanno calcolato per ognuna di queste formazion i geologiche la quantità d'acqua che li ha percorsi. I risultati indicano l'esistenza di fiumi di notevole portata fino all'ultima fase del clima umido di Marte. graduale; invece l'analisi di ciò che rimane dei letti testimonia un accorciamento dei fiumi da migliaia a centinaia di chilometri, ma la persistenza di una portata ancora notevole", ha spiegato Kite. "In altre parole, il giorno più umido dell'anno era ancora molto molto umido". alternanza di clima secco e clima umido, invece che un lento e graduale passaggio dall'umido al secco. Questa alternanza ha caratterizzato l'intera superficie del pianeta e fino a meno di un miliardo di anni fa. complicano ancora di più la ricostruzione della storia idrogeologica di Marte, perché non sono coerenti, per esempio, con l'ipotesi che l'atmosfera marziana si sia rarefatta molto prima di un miliardo di anni fa. attuali, ma ne solleva di nuovi", ha concluso Kite. "Che cosa c'è di sbagliato? I modelli climatici, i modelli di evoluzione dell'atmosfera o la nostra comprensione di base della cronologia del sistema solare interno?". (red) |
Post n°2159 pubblicato il 29 Aprile 2019 da blogtecaolivelli
fonte: Le Scienze 25 marzo 2019 I ricercatori dell'esperimento DAMA ai Laboratori del Gran Sasso affermano da tempo di aver rilevato segnali di materia oscura, la massa mancante del cosmo che scienziati in tutto il mondo tentano di identificare. Ma due esperimenti fotocopia di DAMA non sono stati in grado di replicarne i risultatidi Davide Castelvecchi/Nature materia oscurafisica delle particelle Per più di due decenni, un solo esperimento al mondo ha costantemente riferito di aver rilevato un segnale di materia oscura, la massa mancante dell'universo che i fisici cercano da tempo di identificare. Ora, due esperimenti progettati per replicare i risultati usando la stessa tecnologia di rilevazione hanno presentato i loro primi dati. Una risposta definitiva rimane elusiva: anche se i dati iniziali di un esperimento sembrano essere compatibili con i risultati originali, i risultati dell'altro rivelatore vanno in direzione opposta. Ma gli scienziati dicono che grazie a questi esperimenti e ad altri che, secondo i programmi, saranno presto attivi, una risposta definitiva sulla natura del segnale misterioso è ora a portata di mano. Il profilo della Via Lattea ripreso dalla Terra. (CC0 Public Domain)"Non c'è davvero alcuna conclusione da trarre a questo punto, se non il crescere della suspense", dice Juan Collar, fisico dell'Università di Chicago, che ha lavorato a diversi esperimenti sulla materia oscura. "Ma gli strumenti sembrano avere una sensibilità sufficiente per dare al più presto risultati conclusivi", afferma Collar. del fondo cosmico a microonde - il "bagliore residuo" del big bang - suggeriscono che la maggior parte della materia nell'universo è invisibile. Questa materia "oscura" mostrerebbe la sua presenza quasi esclusivamente tramite le interazioni gravitazionali con altri oggetti, ma una serie di esperimenti ha cercato per decenni di raccogliere i segni delle sue altre interazioni con la materia ordinaria. il Laboratorio nazionale del Gran Sasso dell'Istituto nazionale di fisica nucleare e il suo successore DAMA/LIBRA hanno registrato una variazione stagionale nei dati. Il rivelatore registra lampi di luce creati quando le particelle collidono con i nuclei atomici in un cristallo di ioduro di sodio altamente purificato. oscura o di radiazione di fondo vagante - ma i fisici dell'esperimento affermano che la variazione stagionale si verifica perché la Terra si muove attraverso un alone di particelle di materia oscura che circonda la Via Lattea, determinando uno schema ripetitivo. Nel marzo 2018, la collaborazione DAMA ha presentato i primi risultati del rivelatore dopo che è stato aggiornato nel 2010. La firma della materia oscura sembrava essere ancora lì. tecniche hanno prodotto risultati apparentemente in contraddizione con DAMA. Ma COSINE-100 e ANAIS sono i primi progetti attivi che mirano a testare le affermazioni di DAMA usando gli stessi materiali, ed entrambi sono operativi da più di un anno. ANAIS nel Laboratorio sotterraneo Canfranc nei Pirenei, in Spagna, ha riferito i suoi primi risultati l'11 marzo. Sulla base di 18 mesi di dati, i risultati sembrano essere in disaccordo con quelli di DAMA. I dati di ANAIS mostrano fluttuazioni, ma non sono le stesse del ciclo annuale di DAMA, in cui i segnali raggiungono il picco all'inizio di giugno e il minimo all'inizio di dicembre. Un altro esperimento che usa ioduro di sodio chiamato COSINE-100, sotto una montagna in Corea del Sud, ha svelato un'analisi simile di a quella di ANAIS nel corso di conferenze di questo mese. Anche questo rivelatore vede una fluttuazione nei suoi dati. Tuttavia, "la nostra è un po' più vicina a quella di DAMA", afferma Reina Maruyama, co-coordinatrice di COSINE-100 e fisica della Yale University. (I risultati sia di ANAIS sia di COSINE-100 sono ancora preliminari e non sono stati ancora sottoposti a peer review). Un momento della preparazione del rivelatore DAMA/LIBRA presso i Laboratori Nazionali del Gran Sasso. (Credit: DAMA-LIBRA Collaboration/LNGS-INFN) L'analisi di ANAIS non ha "alcun impatto" sui risultati di DAMA/LIBRA e dei suoi predecessori: i dati sono già stati confermati in oltre 20 cicli annuali indipendenti, afferma Rita Bernabei, fisica dell'Università di Roma Tor Vergata che ha guidato a lungo la collaborazione DAMA. forti contro il risultato di DAMA/LIBRA, per molti rivelatori sarebbe utile continuare a raccogliere dati per diversi anni, dice Collar: "Quando un esperimento sta vedendo una cosa come questa e un altro no, ci si chiede se qualcuno ha sbagliato". necessari anni di registrazione dei dati da più esperimenti per sistemare veramente la questione. "Con qualche anno in più di dati, dovrebbero essere in grado di fare una dichiarazione definitiva", spiega David Spergel, il cosmologo che per primo nel 1986 ha previsto l'oscillazione stagionale con due colleghi. una fisica dell'Università di Saragozza, in Spagna, afferma che qualunque sia l'esito finale, il suo esperimento dovrebbe aiutare a spiegare che cosa ha causato il segnale stagionale al Gran Sasso. "Ho il desiderio di capire DAMA/LIBRA - dice - non solo per escludere il risultato". pubblicato su "Nature" il 19 marzo 2019. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati) |
Post n°2158 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 13 marzo 2019 La minaccia delle tempeste solari L'analisi di carote di ghiaccio prelevate in Groenlandia ha documentato la presenza di isotopi radioattivi prodotti da una tempesta solare di eccezionale intensità avvenuta nel 660 a.C. e ha confermato anche altri due eventi analoghi nel 775 e nel 994 d.C. Lo studio quindi suggerisce che i rischi per le attività umane di questo tipo di eventi potrebbero essere sottostimati Il nostro pianeta è investito periodicamente da tempeste solari costituite da fasci di particelle elementari ad alta energia, in particolare protoni, prodotte da enormi esplosioni che si verificano sulla superficie del Sole. Si tratta di eventi temibili per i danni che possono portare alla distribuzione della corrente elettrica, alle comunicazioni, alle trasmissioni via i satellite, nonché ai sistemi di controllo del traffico aereo. llustrazione dell'interazione tra le particelle cariche prodotte dal Sole e la Terra, protetta dalla suo campo magnetico, evidenziato in viola (Credit: NASA)Ma le tempeste solari di cui noi esseri umani siamo stati testimoni negli ultimi decenni, da quando cioè sono disponibili strumenti adatti alla loro rilevazione, potrebbe impallidire in confronto a ciò che avvenne in un lontano passato. in Groenlandia da un gruppo di ricercatori della Lund University che firmano un articolo sui "Proceedings of the National Academy of Sciences". L'analisi di quei campioni, che rappresentano una sorta di registro storico delle tempeste solari fino a circa 100.000 anni fa circa, mostra un antico evento estremamente intenso avvenuto nel Settimo secolo prima di Cristo, e di cui si ha notizia per la prima volta, e conferma altri due eventi di rilievo, che si sono verificati nel 775 e nel 994 d.C., ed erano stati già evidenziati da passati studi sugli anelli di accrescimento degli alberi plurisecolari. eventi, gli autori hanno misurato in particolare l'abbondanza di tre isotopi radioattivi: il carbonio 14, il berillio 10 e il cloro 36. Questi isotopi sono prodotti principalmente da una cascata di reazioni che si verificano negli strati più alti dell'atmosfera quando sono investiti da flussi molto energetici di protoni che provengono dal Sole. Una volta mescolatisi con l'aria, questi isotopi radioattivi si fissano nei "registri ambientali", come appunto il ghiaccio, che nelle regioni artiche si può conservare per centinaia di migliaia di anni. hanno indicato un rapido incremento in corrispondenza di strati sedimentatisi nel 660 a.C. e che non può essere spiegato con la normale modulazione dell'attività solare. quella portata metterebbe a serio rischio la nostra civiltà ad alta tecnologia", ha commentato Raimund Muscheler, professore di geologia della Lund University e coautore dell'articolo. "La nostra ricerca indica che i rischi sono attualmente sottostimati; ecco perché sarebbe il caso di aumentare in via precauzionale le nostre difese nei confronti delle tempeste solari: dobbiamo essere preparati meglio". al carbonio 14 sono inadeguate per ottenere stime affidabili della frequenza e delle proprietà delle tempeste solari passate, ma possono essere proficuamente associate alle analisi basate sul berillio 10 e sul cloro 36. (red) |
Post n°2157 pubblicato il 29 Aprile 2019 da blogtecaolivelli
fonte: Le Scienze 08 marzo 2019 Perché le ere glaciali sono diventate più lunghe Circa un milione di anni fa, la durata delle ere glaciali si allungò moltissimo, passando da una media di 41.000 anni a quasi 100.000 anni. All'origine di questa drammatica estensione ci fu un rallentamento della circolazione oceanica nelle acque che circondano l'Antartide Fu un rallentamento della circolazione oceanica nelle acque della regione antartica, circa un milione di anni fa, a rendere le ere glaciali molto più rigide e lunghe. A scoprirlo è stato un gruppo internazionale di ricercatori diretti da Adam P. Hasenfratz, del Politecnico di Zurigo, che firmano un articolo su "Science". del clima terrestre è stato dominato dal regolare alternarsi di periodi glaciali e interglaciali, legati alle oscillazioni dell'orbita ellittica della Terra attorno al Sole e alle conseguenti variazioni nell'intensità della radiazione solare che raggiunge il pianeta. circa, i periodi glaciali sono diventati ancora più rigidi e sono più che raddoppiati, passando da una durata media di circa 41.000 anni a quasi 100.000 anni. Simulazione delle correnti oceaniche attorno all'Antartide. (© Science Photo Library / AGF) Per questo drastico cambiamento - noto come transizione del Pleistocene medio - non è stato possibile individuare alcun indizio di una causa astronomica, un enigma complicato dall'assenza di dati paleoclimatici abbastabza dettagliati per caratterizzare con precisione la transizione. attorno all'Antartide eseguiti nel quadro dell'Ocean Drilling Project, Hasenfratz e colleghi hanno ora colmate in parte questa lacuna ricostruendo le variazioni di temperatura e salinità nell'oceano Australe durante gli ultimi 1,5 milioni di anni. A questo scopo hanno analizzato le concentrazioni di oligoelementi e isotopi dell'ossigeno inglobati all'interno dei microscopici gusci di foraminiferi presenti nei carotaggi dei sedimenti, che permettono di risalire alle dinamiche di trasporto di calore, nutrienti e carbonio delle acque in ciascun periodo. transizione del Pleistocene medio è avvenuto un progressivo aumento della salinità in profondità e una parallela stabilizzazione degli strati delle acque, con un indebolimento della risalita delle acque profonde ricche di nutrienti e di carbonio, tratti tipici di un indebolimento delle correnti oceaniche. ridotto il passaggio della CO2dall'oceano Australe all'atmosfera, che secondo le stime degli autori sarebbe diminuita di circa 40 parti per milione, con un indebolimento dell'effetto serra di questo gas e un abbassamento delle temperature globali. L'effetto di questi cambiamenti sulla circolazione atmosferica avrebbe poi causato un'ulteriore indebolimento delle correnti marine. Sarebbe dunque questo meccanismo di
retroazione positiva ad aver provocato l'eccezionale prolungamento delle ere glaciali. (red) |
Post n°2156 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze Un gruppo di ricerca ha ingegnerizzato una superficie elastica che riproduce alcune straordinarie caratteristiche della pelle di polpi e seppie, che può mutare non solo il colore ma anche la trama tridimensionale, in modo da riprodurre la scabrosità degli oggetti usati dall'animale per nascondersi(red) animalimaterialiroboticaVAI AL VIDEO: Le papille del polpo non hanno più segreti
naturale per sfuggire ai predatori è un po' più facile che per gli altri animali. Questi molluschi possono infatti cambiare istantaneamente non solo il colore e la livrea della pelle ma anche mutarne la struttura superficiale tridimensionale, in modo da renderla scabrosa come quella di un corallo o di qualunque altro oggetto abbiano scelto per nascondersi. un gruppo di ricercatori della Cornell University guidati da James Pikul e Robert Shepherd riferisce ora di aver ricreato artificialmente le proprietà della pelle di questi molluschi, realizzando superfici elastiche con una trama tridimensionale programmabile. Un'immagine eloquente della capacità della seppia gigante australiana (Sepia apama) di usare l'estroflessione delle papille per mimetizzarsi (Credit: Roger Hanlon)La ricerca fa parte del fertile settore della bioispirazione, cioè dell'insieme delle tecniche robotiche che cercano di imitare alcune tra le più sorprendenti capacità degli animali. L'imitazione dei cefalopodi, in particolare, ha creato una vera e propria nicchia di studi, producendo "una piccola rivoluzione nella robotica, svelando i principi per sviluppare robot soffici, ovvero robot costruiti con materiali altamente deformabili", come spiega Cecilia Laschi, della Scuola Sant'Anna di Pisa, in un articolo di commento apparso sullo stesso numero di "Science". silicone, che viene controllato in attuatori pneumatici, cioè in buona sostanza gonfiandoli e sgonfiandoli", ha continuato Laschi. "La direzione di moto è controllata da camere di forma predeterminata che si deformano in modo asimmetrico",anche grazie a una struttura di fibre indeformabili. è impressionante": si tratta di una pelle morbida e piatta che può assumere la forma delle rocce o delle piante circostanti. E può anche produrre protuberanze sulla sua superficie per ottenere un mimetismo ancora più efficace. estroflessioni chiamate papille. Esse sono un esempio di idrostato muscolare, cioè di una struttura biologica costituita da tessuto muscolare priva di supporto scheletrico, come nel caso della lingua. I molluschi possono estenderle nell'arco di 20 centesimi di secondo per il mimetismo dinamico e ritrarre per evitare un inutile attrito idrodinamico quando nuotano. estenderle e ritrarle istantaneamente come fanno polpi e seppie", ha spiegato Roger Hanlon, uno degli autori dello studio. "Ma per questi cefalopodi è una questione di soprav- vivenza: non hanno una conchiglia che li protegga, l'arma di difesa principale è proprio il mimetismo". di papille controllate dal cervello in modo indipendente, ciascuna delle quali può passare da una superficie piatta bidimensionale a una dozzina di possibili forme tridimensionali", ha continuato il ricercatore. sviluppato dispositivi per controllare la forma di materiali elastici, ma quest'ultima realizzazione dei ricercatori della Cornell ha dalla sua un'estrema facilità e rapidità di trasformazione. trae ispirazione dalla biologia, con molte potenziali applicazioni", ha concluso Hanlon. "Per esempio, il materiale potrebbe essere mutato in modo controllato per riflettere la luce nella sua conformazione bidimensionale e assorbirla in quella tridimensionale: potrebbe perciò trovare applicazione in tutte le situazioni in cui occorra manipolare la temperatura di un materiale". |
Post n°2155 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 31 maggio 2018 Quando il robot mostra i muscoli
Successo di una sperimentazione di robot bioibridi che integrano muscoli biologici ancorati a un scheletro artificiale in modo da formare coppie di elementi antagonisti tra loro, come avviene negli esseri umani. Il dispositivo è stato in grado di spostare piccoli oggetti con una sorta di dito che si flette a 90°(red) roboticaVAI AL VIDEO: Dita bioibride in azione fantascienza è affollato da robot, fatti di metallo e plastica, e da cyborg, del tutto uguali agli esseri umani, anche nell'essere realizzati con tessuti biologici. Un nuovo campo della robotica sta ora aprendo la strada a una via di mezzo tra i due: i robot bioibridi. Si tratta sostanzialmente di robot che integrano tessuti viventi, per esempio i muscoli, ritenuti essenziali per il movimento. di un dito articolato che integra muscoli biologici. (Credit: Copyright 2018 University of Tokyo) Un grande passo avanti in questo settore è stato compiuto ora grazie a uno studio pubblicato su "Science Robotics" dai ricercatori dell'Istituto di scienze industriali dell'Università di Tokyo che hanno sviluppato un nuovo metodo che permette di sviluppare muscoli scheletrici per molti aspetti completi e perfettamente funzionanti a partire dai precursori dalle singole cellule muscolari, i miociti, immersi in fogli di idrogel. di elettrodi e ancorati allo "scheletro" di minuscoli bracci robotici, in modo che formassero coppie di elementi tra loro antagonisti; proprio come avviene per i muscoli scheletrici del corpo degli esseri umani e degli altri animali, in cui la flessione di un arto è governata dalla contrazione di un muscolo e dall'estensione del suo antagonista, mentre per l'estensione avviene l'inverso. simile a un dito, in grado di flettersi di 90° che ha dimostrato una funzionalità muscolare continuata per oltre una settimana e una notevole capacità di movimento. all'estensione del suo antagonista permette di avere forze tra loro opposte: proprio questo ha impedito che i muscoli implodessero e si deteriorassero in breve tempo, come è avvenuto negli studi precedenti", ha spiegato Shoji Takeuchi, coautore dello studio. robot bioibridi in diverse operazioni: singolarmente, hanno dimostrato di poter afferrare un anello per poi posizionarlo in una certa posizione e, a coppie, hanno mostrato di poter essere coordinate per spostare una cornice quadrata. disposizione antagonista dei muscoli, questi robot possono imitare le azioni di un dito umano", ha concluso Yuya Morimoto, autore principale dello studio. "Se potessimo combinare diversi di questi muscoli in un singolo dispositivo, dovremmo essere in grado di riprodurre la complessa interazione muscolare che permette di funzionare alle mani, alle braccia e ad altre parti del corpo". |
Post n°2154 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 01/12/2003 Comunicato stampa - R1 "Your Personal Humanoid" (l'umanoide personale) ha design italiano, 50% in plastica, alto 1,25 m, peso 50kg, costerà inizialmente come una piccola automobile e in futuro, come prodotto sul mercato, poche migliaia di euro. Nei prossimi 12-18 mesi sarà implementato il modello di produzione e commercializzazione su larga scala con il coinvolgimento di investitori privati Genova, 19 luglio 2016 - É nato R1 - "Your Personal Humanoid" - il nuovo umanoide nell'ecosistema robotico dell'IIT- Istituto Italiano di Tecnologia. Design italiano, altezza variabile di 20 cm a partire da 1 metro e 25 cm, peso di 50 kg, 50% in plastica e 50% fibra di carbonio e metallo, è concepito per operare in ambienti domestici e professionali. IIT, con il coinvolgimento di investitori privati, realizzerà nei prossimi 12-18 mesi il modello di produzione e commercializzazione su larga scala. partendo dall'esperienza maturata da IIT su iCub, il robot umanoide per la ricerca più diffuso al mondo. R1 è anch'esso umanoide e ha elementi di unicità: è progettato studiando le reazioni umane durante l'interazione con lui. Si tratta di un lavoro in collaborazione con designers, creativi e neuroscienziati per capire quali aspetti della forma e movimento del robot lo fanno sembrare più "umano"; la sua Intelligenza Artificiale (IA) è studiata e sviluppata direttamente sull'umanoide. La maggior parte degli studi sull'IA sono condotti indipendentemente dall'esistenza di un corpo robotico, mentre, al contrario, gli ultimi studi sulle neuroscienze dicono che l'intelligenza si sviluppa in maniera funzionale al corpo che la ospita; ha un corpo di nuova concezione, in cui sono utilizzati attualmente per il 50% della struttura materiali plastici. Le versioni future incorporeranno materiali intelligenti come quelli basati su grafene, o biodegradabili, sensori sempre più sofisticati, batterie più efficienti e circuiti incorporati nella struttura stessa del robot.
collaborazione di una squadra di 22 scienziati e tecnici di IIT guidati da Giorgio Metta, alcuni progettisti i ndustriali dell'area genovese, e un gruppo di industrial & graphic designer, esperti di entertainment e illustratori proveniente da due diverse realtà creative: una di Milano che ha coordinato lo sviluppo del concept creativo, l'individuazione degli scenari di interazione e mercato coordinata da Andrea Pagnin e Luigi Focanti per 6.14 Creative Licensing, e l'altra di Barcellona coordinata da Pierpaolo Congiu di Drop Innovation, che ha collaborato con la realtà milanese per la realizzazione del design delle superfici dell'umanoide. da 125 a 140cm grazie a un busto allungabile. Similmente, le sue braccia si possono estendere di 13cm in avanti, per raggiungere oggetti lontani. Il torso, oltre a muoversi in alto e in basso, può anche torcere lateralmente. Il movimento in autonomia è garantito da una batteria per circa 3 ore; quando si scarica, basta collegarlo alla presa elettrica di casa tramite un alimentatore, proprio come qualsiasi elettrodomestico. R1 riesce a muoversi negli ambienti grazie a ruote con cui raggiunge una velocità di 2 km/h, valore che i progettisti hanno determinato come limite di sicurezza. le cui facce stilizzate danno al robot le espressioni utili alla comunicazione non verbale con l'uomo. Brevettato da IIT, lo schermo è pensato per avere un costo basso, e ospita i sensori per la visione: 2 telecamere stereo e 1 scanner 3D; quelli per l'equilibrio: 1 accelerometro e 1 giroscopio; e quelli per la generazione e percezione del suono: altoparlanti e 1 microfono. Nella pancia alloggiano, inoltre, i 3 computer che governano le capacità del robot, dal calcolo al movimento della testa e al controllo dei sensori. Una scheda wireless permette al robot di collegarsi alla rete internet, ricavando informazioni utili alla sua interazione con l'uomo o aggiornamenti del suo software. Il software, infatti, ha parti Open Source in modo da beneficiare della collaborazione della community che già opera intorno alla robotica umanoide di IIT. di una pelle artificiale, ovvero di un sensore che conferisce al robot il senso del tatto, permettendogli di "sentire" l'interazione con gli oggetti che manipola. Il disegno delle mani del robot è stato semplificato rispetto a quello del robot iCub, per garantire robustezza e costi contenuti pur consentendo l'esecuzione di semplici operazioni domestiche. Hanno la forma di due guanti a monopola (muffola), con un polso sferico, grazie a cui il robot può sollevare pesi fino a 1,5kg e chiudere completamente la presa attorno ad oggetti cilindrici come bottigliette e bicchieri. e giunti di R1 sono dotati di una sorta di "frizione" che controlla il movimento del robot, attenuandolo, durante gli urti. I motori totali sono 28: 2 per la testa e collo, 4 per il torso, 8 per ciascun braccio, 2 per ciascuna mano, 1 per ciascuna delle 2 ruote. |
Post n°2153 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 16 luglio 2016 Un robot che uccide è ancora un semplice strumento? La notizia che lo scorso 7 luglio la polizia di Dallas si è servita di un robot per eliminare un cecchino ha fatto molto discutere. Secondo gli esperti, tuttavia, questo uso degli automi non è una novità e non prefigura scenari fantascientifici di poliziotti-robot che agiscono in modo indipendentedi Karl J. P. Smith E' stato un robot che trasportava un ordigno esplosivo a uccidere il cecchino responsabile della orribile notte di violenza dello scorso 7 luglio a Dallas, in Texas. Secondo molti esponenti delle forze dell'ordine e altri esperti si è trattato della prima volta che la polizia degli Stati Uniti ha fatto un uso simile della tecnologia robotica. uccisioni per mano della polizia di due afroamericani in altre città, cinque poliziotti sono stati uccisi e altri sette sono rimasti feriti, così come due civili. Micah Johnson, l'uomo sospettato di aver sparato, è stato ucciso dall'esplosivo trasportato dal robot e fatto brillare a distanza dopo il fallimento delle trattative con la polizia. all'University of the New South Wales, mette in guardia dal considerare questo uso di un robot come la scena di un incubo fantascientifico, perché il robot è stato azionato con un telecomando da un essere umano. "Sotto questo aspetto, non ci avvicina ai robot killer più dei droni Predator telecomandati che volano nei cieli dell'Iraq, del Pakistan e altrove", ha dichiarato Walsh. "Nell'azione è ancora molto coinvolto un essere umano, e questo è positivo." Un robot simile a quello usato per uccidere il cecchino a Dallas (Ksp0704/Wikimedia Commons, CC BY-SA 3.0) Anche altri sono d'accordo. "Il punto è che [il robot] è uno strumento. Strumenti con queste funzionalità esistono da molti anni", dice Red Whittaker, docente di robotica alla Carnegie Mellon University. "E' controllato a distanza; non c'è nulla di diverso dal premere un grilletto, lanciare una granata o qualsiasi altra azione del genere. Il telecomando è un oggetto che si può acquistare in qualsiasi negozio di hobbistica." per la bonifica dagliordigni esplosivi. E' un tipo di intervento che esiste da decenni", dice David Klinger, criminologo all'Università del Missouri a St. Louis. Klinger dice che i robot sono strumenti versatili, utili non solo se c'è di mezzo una bomba, ma anche in diverse situazioni in cui è in gioco la vita di un agente. Automi come quello di Dallas - che sembra fosse un Northrop Grumman Andros F6A o F6B - somigliano a piccoli carrarmati e sono dotati di armi intercambiabili, e questo permette funzionalità diverse, fra cui per esempio l'uso di fucili. caso in cui la polizia degli Stati Uniti usa un robot dotato di una carica esplosiva, ma aggiunge di non ritenerlo un problema. "La legge non discrimina tra i tipi di sistemi usati per esercitare una forza letale", dice. "Se un agente di polizia avesse potuto colpire quell'individuo, avrebbe potuto usare qualsiasi altro strumento letale . Negli Stati Uniti abbiamo avuto situazioni in cui gli agenti di polizia hanno investito delle persone. Se potete sparare a qualcuno, potete investirlo; sono a conoscenza di casi in cui gli agenti di polizia hanno introdotto dispositivi incendiari,... allora perché non dovremmo poter ricorrere legalmente a un ordigno esplosivo?" Un'immagine dei funerali degli agenti uccisi a Dallas (Stewart F. House / Stringer/Getty Images) Ron McCarthy, un poliziotto in pensione che ha lavorato per 13 anni nel comando della squadra S.W.A.T. (Special Weapons And Tactics) della polizia di Los Angeles, è d'accordo. "Sono molto utili e molto pratici, e ce ne sono tantissimi. Usarli in questo caso? Perfetto. Quando c'è qualcuno che minaccia di uccidere cittadini o agenti, non dobbiamo giocare con la loro vita." cui si stanno sviluppando tecnologie come questa, e teme che un giorno questi robot possano essere automatizzati, una probabilità eticamente molto più inquietante. "E' solo un piccolo passo nella direzione dell'eliminazione dell'uomo per sostituirlo con un computer", ha commentato. "Negli ultimi mesi, abbiamo visto il primo test della marina americana con la sua prima nave completamente autonoma. Abbiamo assistito alla prima morte causata da un veicolo completamente autonomo. Si tratta di tecnologie che sono ormai molto vicine." su www.scientificamerican.com l'8 luglio 2016. Riproduzione autorizzata, tutti i diritti riservati) |
Post n°2152 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze Un gruppo di ricercatori statunitensi ha realizzato un materiale in grado di emettere luce anche quando viene deformato: si tratta di una sorta di pelle artificiale che potrebbe essere integrata in dispositivi robotici che cambiano colore in risposta al tono emotivo della comunicazione con gli umani(red) Una "pelle" elettroluminescente che si può allungare fino ad assumere sei volte le dimensioni originali, mantenendo l'emissione di luce: è il risultato ottenuto da un gruppo di ricercatori della Cornell University a Ithaca, nello stato di New York, guidati da Rob Shepherd, in collabora- zione con il Centro di Micro-Bio Robotica (CMBR) dell'Istituto italiano di tecnologia (IIT) di Pontedera (Pisa), dove sono avvenuti i test. pelle potrebbe trovare applicazione in molti campi tecnologici, dai dispositivi robotizzati per l'assistenza sanitaria, ai trasporti e alle tele- comunicazioni. light-emitting capacitor,condensatore iperelastico a emissione di luce), è stato ottenuto accoppiando strati di elettrodi di idrogel trasparente, il materiale conduttore, a fogli di elastomeri isolanti che sono in grado di cambiare la loro luminanza - cioè l'intensità di luce che possono emettere per unità di superficie - e capacità, cioè l'abilità di conservare la carica elettrica al loro interno quando vengono deformati. Queste caratteristiche fanno sì che la luce prodotta in risposta all'applicazione di un campo elettrico da una matrice siliconica associata a polveri di fosforo semiconduttore abbia diversa intensità al variare della deformazione. Un'immagine della pelle elettroluminescente mentre subisce una deformazione (Credit: Science, Organic Robotics Lab at Cornell University)"Questo materiale potrebbe essere sfruttato per realizzare robot che cambiano colore" ha spiegato Shepherd. "Il perché di questo obiettivo si comprende considerando che, per quanto è possibile prevedere, i robot entreranno sempre di più a far parte delle nostre vite ed è importante che possano avere una connessione emotiva con noi: l'idea è che possano cambiare il loro colore in risposta al tono emotivo dell'ambiente in cui si trovano". d'integrare il dispositivo in un sistema robotico. Tre pannelli a sei strati sono stati collegati per formare un robot soffice in grado di muoversi lentamente: i quattro strati più in alto formano la pelle luminosa e i due più in basso gli attuatori pneumatici. Grazie a una serie di camere che possono essere alternativamente gonfiate e sgonfiate, il dispositivo può cambiare la sua curvatura, creando ondulazioni che possono produrre un moto simile a una camminata. |
Post n°2151 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 13 marzo 2017 L'hard disk diventa atomico Un gruppo di scienziati ha ottenuto un magnete stabile costituito da un singolo atomo. L'obiettivo finale, ancora lontano, è realizzare dischi rigidi a scala atomica, in grado di aumentare di migliaia di volte la densità di immagazzinamento dei dati rispetto alle prestazioni degli hard disk attualidi Elisabeth Gibney/Nature Spaccate un magnete in due: avrete due magneti più piccoli. Tagliateli ancora in due, e ne otterrete quattro. Ma più i magneti diventano piccoli, più sono instabili: i loro campi magnetici tendono a invertire le polarità da un momento all'altro. Ora, però, i fisici sono riusciti a creare un magnete stabile da un singolo atomo. proprio lavoro su Nature l'8 marzo scorso, ha usato i suoi magneti a singolo atomo per realizzare un hard disk su scala atomica. Il dispositivo riscrivibile, formato da due di questi magneti, è in grado di memorizzare solo due bit di dati, ma se portato a grande scala potrebbe aumentare di 1000 volte la densità di immagaz- zinamento dei dati di un hard disk, spiega Fabian Natterer, fisico dell'École polytechnique fédérale de Lausanne ( EPFL), in Svizzera, autore dell'articolo. fisico della Delft University of Technology, nei Paesi Bassi. "Finalmente, è stata dimostrata in modo indiscutibile la stabilità magnetica in un singolo atomo". Credit: Tessi Alfredo/AGFAll'interno di un normale hard disk c'è un disco diviso in aree magnetizzate, ciascuna simile a una piccola barretta magnetica; i campi delle aree magnetizzate possono puntare verso l'alto o verso il basso. Ciascuna direzione rappresenta un 1 o uno 0, un'unità di dati nota come bit. Più sono piccole le aree magnetiz- zate, più densamente possono essere memorizzati i dati. Ma le regioni magnetizzate devono essere stabili, in modo che gli 1 e gli 0 all'interno del disco rigido non cambino accidentalmente. milione di atomi. Ma in esperimenti i fisici hanno ridotto radicalmente il numero di atomi necessari per memorizzare un bit, passando dai 12 atomi del 2012 a un unico atomo ora. Natterer e il suo gruppo hanno usato atomi di olmio, un metallo delle terre rare, posto su un foglio di ossido di magnesio e mantenuto a una temperatura inferiore a cinque kelvin. singolo atomo perché ha molti elettroni spaiati che creano un forte campo magnetico, e questi elettroni si trovano in un'orbita vicina al centro dell'atomo dove sono schermati dall'ambiente. Questo conferisce all'olmio un campo intenso e stabile, dice Natterer. Ma la schermatura ha un inconveniente: rende l'olmio notoriamente un elemento con cui è difficile interagire. E finora molti fisici dubitavano che fosse possibile determinare in modo affidabile lo stato dell'atomo. gruppo ha usato un impulso di corrente elettrica da una punta magnetizzata di un microscopio a effetto tunnel, che può invertire l'orientamento del campo dell'atomo tra uno 0 e un 1. Nei test, i magneti si sono dimostrati stabili: ciascuno ha conservato i propri dati per diverse ore e il gruppo non ha mai osservato una inversione involontaria. I ricercatori hanno usato lo stesso microscopio per leggere il bit, con diversi flussi di corrente per rilevare lo stato magnetico dell'atomo. potuto leggere in modo affidabile il bit, il gruppo, che includeva ricercatori dell'IBM, ha ideato un secondo metodo di lettura indiretto. Ha usato un atomo di ferro vicino come un sensore magnetico, regolandolo in modo che le sue proprietà elettroniche dipendessero dall'orientamento dei due magneti atomici di olmio nel sistema a 2 bit. Il metodo permette al gruppo di leggere anche più bit contemporaneamente, dice Otte, rendendolo più pratico e meno invasivo rispetto alla tecnica microscopica. CC0 Public DomainUsare singoli atomi come bit magnetici aumenterebbe radicalmente la densità di memorizzazione dei dati; Natterer riferisce che i suoi colleghi dell'EPFL stanno lavorando a metodi per realizzare grandi schiere di magneti a singolo atomo. Ma il sistema a 2 bit è ancora lontano dalle applicazioni pratiche e molto in ritardo rispetto a un altro tipo di archiviazione a singolo atomo, che codifica i dati nelle posizioni degli atomi, invece che nella loro magnetizzazione, e ha già costruito un dispositivo di archiviazione dati riscrivibile da 1-kilobyte (8192-bit). potrebbe essere compatibile con la spintronica, dice Otte. Questa tecnologia emergente usa stati magnetici non solo per memorizzare i dati, ma anche per spostare informazioni in un computer al posto della corrente elettrica, e renderebbe i sistemi molto più efficienti dal punto di vista energetico. i magneti a singolo atomo. Natterer, per esempio, prevede di osservare tre mini- magneti orientati in modo che i loro campi siano in concor- renza l'uno con l'altro, in modo da invertirsi continuamente. atomo, usandoli come mattoncini Lego per costruire strutture magnetiche da zero", conclude. pubblicato su Nature l'8 marzo 2017. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati.) |
Post n°2150 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 17 novembre 2016 Nuovo record per l'entanglement quantistico Un esperimento ha dimostrato per la prima volta la correlazione quantistica a distanza tra dieci fotoni. Il risultato, ottenuto con una tecnica sperimentale innovativa, apre la strada ad applicazioni nell'informazione quantistica e nel teletrasporto, ma ancora non basta a rendere competitivi i computer quantisticidi Matteo Serra fisicacomputer sciencefisica teorica Un gruppo di ricercatori coordinati da Xi-Lin Wang, dell'University of Science and Technology of China di Hefei, ha dimostrato per la prima volta l'entanglement quantistico tra dieci fotoni, migliorando il primato precedente: finora l'entanglement era stato ottenuto al massimo tra otto fotoni. I risultati dell'esperimento sono stati pubblicati su "Physical Review Letters". e controversi della meccanica quantistica, è una correlazione che lega particelle a distanza: quando due particelle sono entangled, una misura dello stato quantistico dell'una influenza anche lo stato dell'altra (e viceversa), qualunque sia la distanza tra le due. molteplici, dalla crittografia al teletrasporto fino ai computer quantistici (gli elaboratori del futuro basati sui principi della meccanica quantistica, in grado di sviluppare una potenza di calcolo estremamente superiore ai computer classici). Tuttavia, gli esperimenti che puntano a ottenere l'entanglement tra più particelle presentano ancora importanti limitazioni. In particolare, l'efficienza dei processi che producono particelle entangled, e di conseguenza la quantità stessa di particelle create, è ancora piuttosto bassa. Apparato sperimentale per la produzione di fotoni entangled (Wikimedia Commons)La maggior parte degli esperimenti di entanglement quantistico usa fotoni (i quanti di luce). In questi esperimenti, tipicamente si sfruttano le proprietà di particolari cristalli, come quelli di borato di bario: illuminati da un laser, i cristalli convertono una piccola frazione di fotoni incidenti in una coppia di fotoni entangled. Questi vengono raccolti e messi a loro volta in entanglement con coppie di fotoni prodotte da altri cristalli. I fotoni in uscita dai cristalli, però, sono emessi in direzioni diverse e con polarizzazioni opposte (la polarizzazione è la direzione di oscillazione del campo elettromagnetico associato ai fotoni): è questo fattore che rende l'efficienza di raccolta dei fotoni abbastanza bassa (attorno al 40 per cento) e limita il numero totale di fotoni entangled prodotti.
avuto l'idea di produrre ciascuna coppia di fotoni entangled tramite un sistema di due cristalli molto vicini tra loro, separati da un dispositivo ottico in grado di modificare la polarizzazione dei fotoni prodotti. Questa configurazione a "sandwich" genera coppie di fotoni che viaggiano nella stessa direzione e con la stessa polarizzazione, aumentando notevolmente l'efficienza di produzione (fino al 70 per cento). Per creare l'entanglement a dieci fotoni, i ricercatori hanno disposto in fila cinque di queste strutture a sandwich, illuminandole con un laser a 0,57 watt di potenza e raccogliendo i fotoni prodotti tramite un altro strumento ottico. un importante passo avanti soprattutto per le possibili applicazioni nel settore dell'informazione quantistica (per esempio nell'elaborazione di codici per la correzione degli errori casuali nei computer quantistici) e negli esperimenti sul teletrasporto, mentre non è ancora sufficiente a rendere i computer quantistici competitivi con quelli classici. |
Post n°2149 pubblicato il 29 Aprile 2019 da blogtecaolivelli
17 aprile 2019 Titano e i suoi profondi laghi di metano
Nell'emisfero nord del più grande satellite di Saturno ci sono numerosi laghi di metano. L'analisi dei dati raccolti dagli strumenti dalla sonda Cassini durante i 13 anni della sua missione mostra che alcuni sono profondi fino a 100 metri, mentre altri sono superficiali e si prosciugano con il cambio di stagione Ghiaccio e roccia. Così veniva descritta sommariamente la superficie di Titano, il più grande dei 62 satelliti naturali di Saturno, fino a pochi anni fa. Poi lo strumento RADAR montato sulla sonda Cassini, frutto della collaborazione tra la NASA, l'Agenzia spaziale europea (ESA) e l'Agenzia spaziale italiana, nel suo viaggio durato 13 anni attorno al pianeta degli anelli, ha documentato la presenza di centinaia di laghi e tre grandi mari di idrocarburi, distribuiti su una superficie di 700.000 chilometri quadrati nell'emisfero nord di Titano. Immagine ripresa dalla sonda Cassini dei laghi dell'emisfero nord di Titano. (Credit: NASA/JPL-Caltech/ASI/USGS)Questi depositi superficiali di idrocarburi - essenzialmente metano, ma anche etano in piccole quantità - non evaporano perché la temperatura media di Titano è di -180 °C, il che fa del satellite l'unico corpo del sistema solare oltre alla Terra in cui può esistere stabilmente materia allo stato liquido sulla superficie. vero e proprio ciclo del metano che connette atmosfera, superficie e strati sotto la superficie. forniscono ora una completa caratterizzazione dei laghi di Titano, delineando anche un plausibile modello della loro storia geologica. del California Institute fo Technology, e colleghi di un'ampia collaborazione internazionale di cui fanno parte anche ricercatori della "Sapienza" Università di Roma e dell'Università "Gabriele D'Annunzio" di Pescara, si basa sulle misurazioni effettuate da Cassini durante l'ultimo sorvolo di Titano, il 22 aprile 2017. In particolare, la sonda è passata sopra a diversi laghi dell'emisfero nord con un diametro variabile tra 10 e 50 chilometri, a una quota di poco superiore ai 1000 chilometri. laghi possono superare i 100 metri di profondità. La trasparenza al segnale radar, inoltre, è di soli 2,17 centimetri, e quindi dimostra che sono costituiti principalmente da metano. Si tratta quindi di una composizione decisamente diversa da quella del lago Ontario, situato nell'emisfero sud di Titano, già caratterizzato in precedenti studi come costituito da etano. Due immagini di Titano riprese dalla sonda Cassini. (NASA/JPL-Caltech/Space Science Institute) migliaia di anni fa per effetto di piogge di metano che hanno disciolto le rocce della superficie. I dati registrati da Cassini indicano che probabilmente c'è un processo di drenaggio del metano nel suolo, che però procede con un tasso più lento del riempimento dovuto alle piogge, impedendo il prosciugamento dei laghi. Hopkins University e colleghi di altri istituti di ricerca statunitensi e francesi hanno focalizzato l'attenzione su formazioni idrogeologiche nella zona dei laghi dell'emisfero nord di Titano che durante l'inverno del satellite appaiono come masse liquide, ma si asciugano in primavera (la transizione tra queste due stagioni dura circa sette anni terrestri). strumenti montati su Cassini come il Visual and Infrared Mapping Spectrometer (VIMS) e l'Imaging Science Subystem (ISS), indicano che questi tre "laghi fantasma" sono in realtà stagni poco profondi, e sono composti quasi totalmente da metano, oppure, in alternativa, poggiano su uno strato di terreno poroso, che rimuove in modo relativamente rapido l'etano, idrocarburo meno volatile del metano. forniscono indicazioni importanti sui processi chimico -fisici che coinvolgono i sedimenti superficiali di Titano, nonché sui suoi fenomeni meteorologici, sull'evoluzione del clima e non ultimo sulla sua "abitabilità": MacKenzie e colleghi lasciano poche speranze all'ipotesi della presenza di forme di vita, considerata la trascurabile concentrazione di nutrienti sul suolo del satellite. (red) |
Post n°2148 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 13 aprile 2017 Il primo microprocessore bidimensionale Per la prima volta è stato realizzato un microprocessore basato sui materiali bidimensionali. Una dimostrazione del fatto che è possibile creare circuiti complessi anche con questo tipo di strutture, grazie a cui superare la tecnologia sl silicio(red) materialicomputer sciencenanotecnologie È costituito da 115 transistor e occupa una superficie di 0,6 millimetri quadrati il primo microprocessore bidimensionale, realizzato da ricercatori del Politecnico di Vienna. In particolare, gli scienziati hanno usato una pellicola di disolfuro di molibdeno dello spessore di soli tre atomi. Anche se il nuovo microprocessore ha la capacità di eseguire solo programmi semplici, rappresenta un progresso tecnologico significativo per il passaggio dall'elettronica basata sul silicio alla nanoelettronica basata sui materiali bidimensionali. La ricerca è descritta in un articolo pubblicato su "Nature Communications". produzione dei microprocessori si sta lentamente ma inesorabilmente avvicinando ai suoi limiti fisici di miniaturizzazione, uno dei fattori chiave del miglioramento delle prestazioni. Per poter continuare la corsa al miglioramento delle prestazioni dei computer e delle apparecchiature elettroniche in generale, fisici e ingegneri stanno quindi testando la possibilità di ricorrere ad altri materiali, e in particolare ai cosiddetti materiali bidimensionali, il cui spessore varia da uno a pochissimi strati atomici. Illustrazione di uno strato di disolfuro di molibdeno fra due strati di grafene (azzurro).( Cortesia Kansas State University)La pellicola triatomica di disolfuro di molibdeno sperimentata al Politecnico di Vienna non solo appartiene a questa classe di materiali, ma è anche un semiconduttore, una proprietà essenziale per il funzionamento dei transistor che il grafene - il capostipite dei materiali bidimensionali, scoperto nel 2004 - non ha. questi materiali permette di sfuggire a una serie di limiti intrinseci della tradizionale tecnologia al silicio, ma a sua volta complica per altri versi la progettazione di un processore che per le proprie connessioni interne non può sfruttare la terza dimensione. Per questo finora non si era riusciti a creare strutture che comprendessero più di una manciata di transistor. che ha diretto la ricerca, "siamo stati molto attenti alle dimensioni dei singoli transistor. I rapporti esatti tra le geometrie dei transistor nei componenti di base del circuito sono un fattore critico per riuscire a creare unità più complesse a cascata." bisogno di ulteriori perfezionamenti per permettere la creazione di circuiti con migliaia o addirittura milioni di transistor, la dimostrazione di principio della loro fattibilità è ormai acquisita. |
Post n°2147 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienzel Le disuguaglianze nella distribuzione della ricchezza fra i membri di una società hanno iniziato a diventare rilevanti durante il Neolitico, con l'avvento dell'agricoltura e dell'allevamento. A parità di sviluppo economico, le antiche culture del Nord e Centro America erano però più ugualitarie di quelle del Vecchio Mondo(red) Nella storia dell'umanità, le disuguaglianze nella distribuzione della ricchezza hanno iniziato ad accentuarsi durante il Neolitico e sono generalmente aumentate con la domestica- zione di piante e animali e con la complessità delle strutture sociali. Queste disuguaglianze, inoltre, sono state decisamente più marcate nelle società euroasiatiche che in quelle dell'America settentrionale e centrale. A stabilirlo è lo studio di un gruppo di ricercatori diretto da Timothy A. Kohler della Washington State University a Pullman, negli Stati Uniti, che ne riferiscono su "Nature". Uno dei più antichi insediamenti agricoli nella cosiddetta mezzaluna fertile, nell'attuale Siria, risalente all'8000 a.C. (Cortesia Dr. Alejandro Pérez-Pérez, University of Barcelona) Gli archeologi si interrogano da tempo sulle differenze di accesso alle risorse nelle società più antiche, ma si sono scontrati con la difficoltà di individuare variabili che riflettessero la condizione economica delle famiglie e al tempo stesso permettessero un confronto fra culture ed epoche diverse. (Le offerte collocate nelle tombe, per esempio, non sono un buon parametro, dato che le tumulazioni che possiamo ritrovare oggi erano riservate in genere a persone di stato sociale elevato e non sono rappresentative di tutta la popolazione.) parametro relativamente semplice e universale della capacità economica di una famiglia sono le dimensioni delle case all'interno di una comunità. Nelle società in cui gran parte delle persone hanno una posizione economica simile, le abitazioni tendono ad avere le stesse dimensioni. Ma per i gruppi in cui alcuni hanno una ricchezza maggiore di altri, si osserva di solito la coesistenza di case piccole e grandi. Una famiglia delle cultura BaYaka, dell'Africa centrale, ancora oggi prevalentemente dedita alla caccia e raccolta. (Cortesia Gul Deniz Salali) Sulla base dei dati raccolti i ricercatori hanno rilevato una maggiore disparità economica nei siti agricoli rispetto a quelli occupati da cacciatori- raccoglitori o da popolazioni con un'economia "mista" (costituite da piccoli gruppi che integravano piccole colture con le risorse ottenute con la caccia o la pesca), e questa disparità era tanto maggiore quanto più era importante la domesticazione di grandi mammiferi e l'estensione delle coltivazioni agricole. A questo si sovrappone poi il livello di strutturazione e complessità della società, con la creazione di élite politiche. avevano raggiunto livelli di disuguaglianza significativamente più elevati rispetto a quelli nordamericani, anche quando le rispettive economie agricole erano durate per periodi di tempo equivalenti. adattato un classico strumento socioeconomico, il cosiddetto indice di Gini, sviluppato più di un secolo fa dallo statistico e sociologo italiano Corrado Gini. In teoria, un paese in cui vi è una distribuzione della ricchezza perfettamente equa avrebbe un indice di Gini pari a 0, mentre un paese in cui tutta la ricchezza è concentrata in una sola famiglia avrebbe un indice pari a 1. Terracotte pueblo rinvenute a Pueblo Bonito, nel New Mexico, risalenti a 1000 anni fa circa. I ricercatori hanno scoperto che l'indice di Gini delle società di cacciatori-raccoglitori è tipicamente 0,17, il che segnala una bassa disparità nella distribuzione delle risorse, coerente con l'elevata mobilità che rende difficile l'accumulazione della ricchezza. sale a 0,27 e cresce ulteriormente - in media a 0,35 - nelle società in cui l'agricoltura predominava nettamente. Questa media nasconde però forte differenze: se nel Nuovo Mondo l'indice difficilmente superava lo 0,3, nel Vecchio Mondo si raggiunge anche un indice pari a 0,59. questi valori, l'articolo riporta anche alcuni esempi dell'indice di Gini di paesi contemporanei: l'indice di Gini attribuito alla Grecia di oggi è 0,56 e quello della Spagna 0,58 (l'Italia è a 0,59): valori decisamente elevati, ma ancora ben inferiori a quelli attribuibili alla Cina (0,73) e agli Stati Uniti (0,80). |
Post n°2146 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze Era un patchwork di pelli di cinque animali diversi - vitello, capra, pecora, orso e capriolo - a comporre gli indumenti di Ötzti, l'uomo vissuto 5300 anni fa i cui resti congelati sono stati scoperti 25 anni fa in seguito al ritiro del ghiacciaio del Similaun. di minuscoli campioni dei diversi capi di vestiario condotta da un gruppo di ricercatori dell'Eurac (European Academy of Bozen/Bolzano) di Bolzano e dell'University College di Dublino, che illustrano la loro ricerca su "Nature Scientific Report". e di un'età ragguardevole per il tempo, circa 40 anni stando agli studi osteologici - fu trovato da due escursionisti a 3210 metri di altitudine, nei pressi del valico che collega la Val Senales con la Ventertal, nelle Ötztaler Alpen (da cui il nomignolo Ötzi) in prossimità del confine con l'Austria. Alcuni oggetti dell'equipaggiamento di Ötzi. Da sinistra a destra: un pugnale di pietra, due archi, una faretra di pelle, e altro oggetti in legno e corteccia di betulla, fra i quali una pietra discoidale forata in cui era inserita una striscia di pelle. (Cortesia Institute for Mummies and the Iceman) La scoperta dei nuovi particolari del vestiario permette di gettare uno sguardo più accurato sullo stile di vita di Ötzi e dei suoi contemporanei. Il pastrano che indossava era una combinazione di almeno quattro pelli di due specie: capra e pecora. Di pecora era era anche il grembiule-perizoma che indossava sotto, mentre erano di vitello i lacci delle scarpe, il "marsupio" e la cintura con cui questo era legato. che la cultura a cui apparteneva era sostanzialmente agro-pastorale; l'abbigliamento e gli oggetti che aveva con sé, fra cui una piccola scorta di grano e farro, fanno infatti ritenere che avesse da poco preso parte a un lavoro di mietitura. spinto a cercare di valicare il passo alpino in autunno ormai avanzato nonostante il suo cattivo stato di salute appurato dalle indagini. Inoltre, la presenza di una frattura al cranio appena precedente al decesso ha sollevato interrogativi sulla una possibile morte violenta. confezione del pastrano indica che per l'abbigliamento veniva usato ciò che era disponibile al momento, evitando di macellare i capi al solo scopo di usarne la pelle o la pelliccia. capra, proprio come quelli trovati pochi anni fa sul passo di Schnidejoch, nelle Alpi bernesi, in Svizzera: un particolare che suggerisce che gli uomini dell'epoca facessero comunque attenzione ai diversi materiali, selezionandoli per i vari usi in funzione, per esempio, della loro flessibilità, e della loro capacità di isolamento. due specie selvatiche, rispettivamente dalla pelle d i capriolo e dalla pelliccia di orso, e questo ci dice che gli abitanti della regione erano comunque provetti cacciatori, anche se l'attività venatoria non era la fonte principale del loro sostentamento. trattate con grassi animali per la concia, e ed è agli effetti di questo procedimento i ricercatori imputano il fallimento del tentativo di estrarre dai campioni il DNA nucleare, che li ha costretti a limitarsi al solo DNA mitocondriale. all'eccezionale scoperta dell'uomo del Similaun il Museo archeologico dell'Alto Adige ha varato una serir di iniziative fra cui una giornata a ingresso libero (il 18 settembre) e, in collaborazione con l'Istituto per le mummie e l'Iceman dell'EURAC, un congresso scientifico ("3rd Bolzano Mummy Congress - Ötzi: 25 years of research" dal 19 al 21 settembre) nell'ambito del quale verranno presentati gli ultimi risultati delle ricerche sull'uomo venuto dal ghiaccio. (Qui l'elenco completo delle manifestazioni) |
Post n°2145 pubblicato il 29 Aprile 2019 da blogtecaolivelli
Fonte: Le Scienze 23 gennaio 2018 Le radici neurologiche dell'espansione demografica umana La grande espansione demografica degli esseri umani, di gran lunga superiore a quella di tutti gli altri primati, è legata all'evoluzione del loro comportamento sociale, che a sua volta è correlata a specifiche modifiche nella biochimica del cervello(red) neuroscienzeantropologiaevoluzione L'enorme successo riproduttivo degli esseri umani sarebbe correlato a cambiamenti nella biologia molecolare del cervello. A individuare questi cambiamenti è un gruppo di ricercatori della Kent State University, in Ohio, che li illustrano sui "Proceedings of the National Academy of Sciences" (PNAS). Il successo demografico degli esseri umani, di gran lunga maggiore rispetto ai nostri parenti più prossimi, è stato sicuramente mediato da abilità sociali particolarmente sviluppate come la cooperazione, l'altruismo, l'empatia e il linguaggio. Tuttavia non è mai stato chiaro in che modo l'evoluzione del comportamento sociale umano si sia tradotta in un miglioramento del successo riproduttivo individuale rispetto agli altri primati. Se, infatti, il passaggio all'andatura perfettamente bipede ha dato ai nostri antenati una maggiore capacità di esplorare i terreni aperti alla ricerca di cibo, aveva il grave svantaggio di aumentare la probabilità di lesioni muscolo-scheletriche, era energicamente costoso, e decisamente lento e goffo rispetto ai movimenti dei predatori. Secondo C. Owen Lovejoy e colleghi, questo handicap evoluzionistico è stato superato grazie alla selezione di un particolare tipo di personalità, in cui il comportamento è influenzato in modo essenziale dallo striato ventrale, una regione del cervello che partecipa alla modulazione del comportamento sociale, oltre che di quello motorio. I ricercatori hanno analizzato il profilo neurochimico nello striato degli esseri umani per confrontarlo con quello degli altri primati. Esseri umani, scimpanzé e gorilla mostrano un aumento di serotonina rispetto ad altri primati, ed esseri umani e scimpanzé condividono anche un aumento del neuropeptide Y. elevato livello di acetilcolina e un basso livello di dopamina, una combinazione che è associata a stili di personalità motivati prevalentemente da stimoli interni e caratterizzati da aggressività, dominanza, bassa motivazione a modificare i comportamenti in corso in risposta agli stimoli sociali o ambientali, nonché a una conoscenza relativamente superficiale dell'ambiente. dopamina e bassi di acetilcolina, che tracciano un profilo di personalità unico, associato a comportamenti più attenti alla conformità sociale e reattivi agli stimoli sociali e ambientali, a una minore aggressività e a una conoscenza più sofisticata dell'ambiente. Elevate concentrazioni di dopamina nello striato sono anche associate a forti legami di coppia, cioè alla monogamia. di cibo da parte del maschio e la monogamia, questo tipo di personalità deve avere migliorato la sopravvivenza delle femmine e dei figli. quindi condotto un secondo studio - pubblicato anch'esso su "PNAS" - in cui hanno esaminato la mortalità e la fertilità dei macachi, i primati di maggior successo demografico dopo gli esseri umani. Hanno così stabilito che la chiave del successo riproduttivo dei macachi era proprio l'elevata sopravvivenza femminile. |
AREA PERSONALE
MENU
CHI PUò SCRIVERE SUL BLOG
I messaggi e i commenti sono moderati dall'autore del blog, verranno verificati e pubblicati a sua discrezione.