Accedi all'area personale per aggiungere e visualizzare i tuoi libri preferiti
Autore principale: Rifkin, Jeremy
Pubblicazione: Milano : Mondadori, 1982
Tipo di risorsa: testo, Livello bibliografico: monografia, Lingua: ita, Paese: IT
L'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è, in meccanica statistica, una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'Universo. Viene generalmente rappresentata dalla lettera S. Nel Sistema Internazionale si misura in joule fratto kelvin (J/K). Nella termodinamica classica, il primo campo in cui l'entropia venne introdotta, S è una funzione di stato di un sistema in equilibrio termodinamico, che, quantificando l'indisponibilità di un sistema a produrre lavoro, si introduce insieme con il secondo principio della termodinamica. In base a questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato di equilibrio ordinato a uno disordinato la sua entropia aumenta; questo fatto fornisce indicazioni sulla direzione in cui evolve spontaneamente un sistema. L'approccio molecolare della meccanica statistica generalizza l'entropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema. Il concetto di entropia è stato esteso ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dell'informazione, acquisendo una vasta popolarità.
Alcune catalogazioni sono state accorpate perché sembrano descrivere la stessa edizione. Per visualizzare i dettagli di ciascuna, clicca sul numero di record
Record aggiornato il: 2021-11-25T02:54:06.938Z