Accedi all'area personale per aggiungere e visualizzare i tuoi libri preferiti
La termodinamica è la branca della fisica classica e della chimica che studia e descrive le trasformazioni termodinamiche indotte da calore a lavoro e viceversa in un sistema termodinamico, in seguito a processi che coinvolgono cambiamenti delle variabili di stato temperatura ed energia. La termodinamica classica si basa sul concetto di sistema macroscopico, ovvero una porzione di massa fisicamente o concettualmente separata dall'ambiente esterno, che spesso per comodità si assume non perturbato dallo scambio di energia con il sistema (sistema isolato): lo stato di un sistema macroscopico che si trova in condizione di equilibrio è specificato da grandezze dette variabili termodinamiche o funzioni di stato come temperatura, pressione, volume e composizione chimica. Le principali notazioni in termodinamica chimica sono state stabilite dalla unione internazionale di chimica pura e applicata. Tuttavia esiste una branca della termodinamica, denominata termodinamica del non equilibrio che studia i processi termodinamici caratterizzati dal mancato raggiungimento di condizioni di equilibrio stabile.
Hermann Ludwig Ferdinand von Helmholtz (Potsdam, 31 agosto 1821 – Berlino-Charlottenburg, 8 settembre 1894) è stato un medico, fisiologo e fisico tedesco. Vero e proprio homo universalis, fu uno degli scienziati più poliedrici del suo tempo e venne soprannominato "Cancelliere della fisica".
L'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è, in meccanica statistica, una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'Universo. Viene generalmente rappresentata dalla lettera S. Nel Sistema Internazionale si misura in joule fratto kelvin (J/K). Nella termodinamica classica, il primo campo in cui l'entropia venne introdotta, S è una funzione di stato di un sistema in equilibrio termodinamico, che, quantificando l'indisponibilità di un sistema a produrre lavoro, si introduce insieme con il secondo principio della termodinamica. In base a questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato di equilibrio ordinato a uno disordinato la sua entropia aumenta; questo fatto fornisce indicazioni sulla direzione in cui evolve spontaneamente un sistema. L'approccio molecolare della meccanica statistica generalizza l'entropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema. Il concetto di entropia è stato esteso ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dell'informazione, acquisendo una vasta popolarità.