Accedi all'area personale per aggiungere e visualizzare i tuoi libri preferiti
Autore principale: Tiezzi, Enzo; Ulgiati, Sergio
Pubblicazione: Firenze : Giunti Marzocco, 1991
Tipo di risorsa: testo, Livello bibliografico: monografia, Lingua: ita, Paese: IT
L'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è, in meccanica statistica, una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'Universo. Viene generalmente rappresentata dalla lettera S. Nel Sistema Internazionale si misura in joule fratto kelvin (J/K). Nella termodinamica classica, il primo campo in cui l'entropia venne introdotta, S è una funzione di stato di un sistema in equilibrio termodinamico, che, quantificando l'indisponibilità di un sistema a produrre lavoro, si introduce insieme con il secondo principio della termodinamica. In base a questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato di equilibrio ordinato a uno disordinato la sua entropia aumenta; questo fatto fornisce indicazioni sulla direzione in cui evolve spontaneamente un sistema. L'approccio molecolare della meccanica statistica generalizza l'entropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema. Il concetto di entropia è stato esteso ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dell'informazione, acquisendo una vasta popolarità.
Nella teoria dell'informazione l'entropia di una sorgente di messaggi è l'informazione media contenuta in ogni messaggio emesso. L'informazione contenuta in un messaggio è tanto più grande quanto meno probabile era. Un messaggio scontato, che ha un'alta probabilità di essere emesso dalla sorgente contiene poca informazione, mentre un messaggio inaspettato, poco probabile contiene una grande quantità di informazione. L'entropia di una sorgente risponde a domande come: qual è il numero minimo di bit che servono per memorizzare in media un messaggio della sorgente? Quanto sono prevedibili i messaggi emessi dalla sorgente? Si è dimostrato che una sequenza di messaggi emessi da una sorgente può essere compressa senza perdita d'informazione fino ad un numero minimo di bit per messaggio uguale all'entropia della sorgente. Una sequenza di lettere come aaaaaaaa possiede meno entropia di una parola come alfabeto la quale a sua volta possiede ancora meno entropia di una stringa completamente casuale come j3s0vek3. L'entropia può essere vista come la casualità contenuta in una stringa, ed è strettamente collegata al numero minimo di bit necessari per rappresentarla senza errori.
L'entanglement quantistico, o correlazione quantistica, è un fenomeno quantistico, privo di analogo classico, per cui in determinate condizioni due o più sistemi fisici rappresentano sottosistemi di un sistema più ampio, il cui stato quantico non è descrivibile singolarmente, ma solo come sovrapposizione di più stati. Da ciò consegue che la misura di un'osservabile di un sistema (sottosistema) determini simultaneamente il valore anche per gli altri. Poiché risulta possibile dal punto di vista sperimentale che tali sistemi (sottosistemi) si trovino spazialmente separati, l'entanglement implica in modo controintuitivo la presenza di correlazioni a distanza, teoricamente senza alcun limite, tra le loro quantità fisiche, determinando il carattere non locale della teoria. Il termine entanglement (letteralmente, in inglese, "groviglio", "intreccio") fu introdotto da Erwin Schrödinger in una recensione del famoso articolo sul paradosso EPR, che nel 1935 rivelò a livello teorico il fenomeno.
L'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è, in meccanica statistica, una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'Universo. Viene generalmente rappresentata dalla lettera S. Nel Sistema Internazionale si misura in joule fratto kelvin (J/K). Nella termodinamica classica, il primo campo in cui l'entropia venne introdotta, S è una funzione di stato di un sistema in equilibrio termodinamico, che, quantificando l'indisponibilità di un sistema a produrre lavoro, si introduce insieme con il secondo principio della termodinamica. In base a questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato di equilibrio ordinato a uno disordinato la sua entropia aumenta; questo fatto fornisce indicazioni sulla direzione in cui evolve spontaneamente un sistema. L'approccio molecolare della meccanica statistica generalizza l'entropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema. Il concetto di entropia è stato esteso ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dell'informazione, acquisendo una vasta popolarità.
Le Scienze è una rivista mensile di divulgazione scientifica, edizione italiana di Scientific American. Oltre che alla scienza di base, presta particolare attenzione alle ricadute tecnologiche e filosofiche della scienza e al progresso tecnico. Fu fondata nel 1968 con la collaborazione di Alberto Mondadori e Felice Ippolito.La rivista ha tra le sue caratteristiche la provenienza di buona parte degli articoli dagli USA e il livello elevato della trattazione (molto spesso gli autori degli articoli sono dei premi Nobel). Per lungo tempo la rivista è stata incentrata su lunghi articoli monografici. Di solito un articolo per ogni numero della rivista era scritto in Italia, mentre gli altri erano traduzioni di articoli da Scientific American; in seguito si è cercato di inserire anche brevi articoli di attualità sul mondo scientifico. Fu diretta per anni dallo stesso Ippolito, e ha ospitato rubriche fisse di vari personaggi noti, tra cui Martin Gardner (enigmi e giochi matematici), Douglas Richard Hofstadter (Temi Metamagici), Piergiorgio Odifreddi e Tullio Regge, oltre ai problemi mensili Rudi Matematici. Edita da GEDI Gruppo Editoriale, è diretta da Marco Cattaneo, che nel gennaio 2009 ha preso il posto di Enrico Bellone. La redazione de Le Scienze cura inoltre Mind, un periodico di psicologia e neuroscienze.
Alcune catalogazioni sono state accorpate perché sembrano descrivere la stessa edizione. Per visualizzare i dettagli di ciascuna, clicca sul numero di record
Record aggiornato il: 2024-05-29T01:04:35.633Z