« territorialità e città (1)Un salmone di nome Vanda »

ceneri

Post n°3 pubblicato il 29 Maggio 2010 da handicapemental

         La teoria del caos è un settore della fisica matematica riguardante i cosidetti "sistemi caotici". La teoria del caos si applica in molte discipline scientifiche: matematica, fisica, chimica, biologia, dinamica di popolazione, informatica, ingegneria, economia, finanza, filosofia, politica, psicologia, e robotica.
Un sistema dinamico si dice caotico se presenta le seguenti caratteristiche:

   * Sensibilità alle condizioni iniziali, ovvero a variazioni infinitesime delle condizioni al contorno (o, genericamente, degli ingressi) corrispondono variazioni finite in uscita. Come esempio banale: il fumo di più fiammiferi accesi in condizioni macroscopicamente molto simili (pressione, temperatura, correntid'aria) segue traiettorie di volta in volta molto differenti.
    *Imprevedibilità, cioè non si può prevedere in anticipo l'andamento del sistema su tempi lunghi rapportati al tempo caratteristico del sistema a partire da assegnate condizioni al contorno.
    * L' evoluzione del sistema è descritta, nello spazio delle fasi, da innumerevoli orbite ('traiettorie di stato') diverse tra loro con evidente componente stocastica, le quali restano tutte confinate entro un certo spazio: il sistema cioè non evolve verso l'infinito per nessuna variabile; si parla in questo caso di ' attrattori ' o anche di 'caos-deterministico '.
Le caratteristiche sopra esposte sono in generale tutte necessarie per definire il sistema 'caotico'. (Wikipedia) (1)


         La bella notizia consiste nel fatto che tutto questo caos si può "misurare" , il termine di misura del caos si chiama entropia. In termodinamica classica, il primo ambito in cui l'entropia venne introdotta, l'entropia è una funzione di stato (l'unica collegata alla freccia del tempo), che, quantificando l'indisponibilità di un sistema a produrre lavoro, si introduce insieme al secondo principio della termodinamica (n.d.r)(2).
Il concetto di entropia ha conosciuto una vastissima popolarità, tanto da essere esteso ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dell'informazione. (Wikipedia).

        Si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato di ordine ad uno di disordine la sua entropia (cioè la misura del caos) aumenta finchè non è raggiunto un nuovo ordine. Semplificando in maniera estrema: una moneta  posata su un tavolo è in una condizione di ordine, lanciata in aria entra in una condizione di caos nella quale resta finchè non ricade e si stabilizza in una nuova condizione di ordine.
Apparentemente però ,esattamente come la moneta e nello stesso suo tempo di volo, anche il nostro sistema cerebrale reagisce al caos cercando un nuovo ordine. Infatti, durante il volo della moneta, ci diciamo che la probabilità che esca testa (o croce) è di una su due e ritroviamo cosi una regola di referenza che si chiama legge della probabilità.  In realtà però la nostra legge della probabilità si basa sul possesso di due informazioni di base (la moneta ha due facce, la moneta non è truccata) e sulla mancanza di tante altre informazioni (le proprietà specifiche della moneta, la sua reale posizione iniziale, la forza e la direzione del lancio) (teorie oggettive e soggettive della probabilità).
Dunque l'entropia (la misura del caos) è inversamente proporzionale alla quantità delle informazioni in nostro possesso esattamente come una diminuzione dell'entropia (cioè una misura del caos che diminuisce) corrisponde ad un aumento delle informazioni in nostro possesso.
        A questo punto dovremmo essere pronti per una specie di doppio salto mortale carpiato all'indietro: l'informazione è una specie di entropia negativa. Caos = - informazioni = + entropia ; Ordine = + informazioni= - entropia


Ciò significa che più passa il tempo (l'entropia è una funzione legata alla freccia del tempo) più aumenta l'entropia e meno informazioni abbiamo: le previsioni a lungo termine sono quindi inattendibili (e questo vale per ogni sistema e per ogni tipo di previsione, siano esse le previsioni del tempo o i piani economici a lungo termine). Per recuperare informazioni dobbiamo osservare il sistema e quindi toglierlo dall'isolamento: l'entropia del sistema può diminuire e così la nostra informazione aumenta. (Mauro Murzi)




(1)Wikipedia non specifica però se le caratteristiche esposte siano semplicemente necessarie e non se siano anche eventualmente sufficienti (n.d.s)
(2)il principio zero della termodinamica enuncia che se i corpi A e B sono entrambi in equilibrio termico con un terzo corpo C, allora lo sono anche fra loro.
il primo principio della termodinamica si fonda sui due postulati conosciuti come "in natura nulla si crea e nulla si distrugge" e stabilisce la legge di conservazione dell'energia in base alla quale calore=lavoro
il secondo principio della termodinamica si basa sulla irreversibilità di alcuni processi e stabilisce che "l'entropia di un sistema isolato lontano dall'equilibrio termico tende a salire nel tempo, finché l'equilibrio non è raggiunto." 

 
Condividi e segnala Condividi e segnala - permalink - Segnala abuso
 
Vai alla Home Page del blog
 
 

 

Ultime visite al Blog

sweetygamekrystellaiscariota.giudarenatodetomagiorgiomed2009rnbjunklacosadgl3telodoioilweb5handicapementaltainaikaikilacosadgl1Bonsaicaffecile54solo6parole
 
 
 
 

© Italiaonline S.p.A. 2024Direzione e coordinamento di Libero Acquisition S.á r.l.P. IVA 03970540963