I’ve written this text as part of an art-science project with photographer Frank Stelitano. You can find more details of the Wisdom of Uncertainty exhibition here and here.
Entropia e energia
L’entropia è disordine. L’entropia è irreversibile. Sono le uova che si rompono nella confezione. È la goccia di inchiostro che si dissolve nella tazza e tinge l’acqua. È la stanza che invariabilmente torna ad essere disordinata. Nel profondo che cos’è l’entropia? In effetti sembrerebbe piuttosto ineffabile. Possiamo accorgerci di quanto sia fondamentale, non solo nel comprendere le dinamiche umane, ma anche nel regolare la vita in generale e la fisica tutta.
Il concetto di entropia emerge dall’osservazione che la dinamica e la meccanica “classiche” e con approccio “microscopico” non sono sufficienti a descrivere compiutamente il mondo in cui viviamo, anche fermandoci ad osservare delle semplici biglie colorate che via via si mescolano nella cesta. Serve del duro lavoro per metterle in ordine. Così come per ordinare le palle da biliardo per una nuova partita.
La prima entrata in scena quindi l’entropia la fa per aiutare a descrivere, con applicazioni anche molto importanti, i confini tra lavoro e processo spontaneo. L’entropia entra come un calore nel mondo delle macchine a vapore, come una fuliggine che man mano tutto avvolge. Boltzmann, Maxwell e altri grandi fisici dell’800 si occuperanno di osservare, quantificare, dare una forma al disordine.
La seconda legge della termodinamica ci dice che l’entropia di un sistema all’equilibrio termico tende ad aumentare spontaneamente. Serve del lavoro per contrastare questo complotto ordito dalla Natura. In un’ottica positivista, conoscere la forma dell’entropia permette all’uomo, tramite la forza delle macchine, di governare l’energia che gli elementi sprigionano, con le loro transizioni di fase. Imprigionare il vapore e regolarlo in stantuffi ritmici, muovendo pistoni, argani, ghiere, che a loro volta animano treni, macchine industriali, telai.
Entropia e informazione
Una seconda vita, ancora più profonda, l’entropia la riceve nell’epoca contemporanea, l’Età dell’Informazione che stiamo vivendo. Claude Shannon individua, con una semplice formula logaritmica, una precisa relazione tra la probabilità delle configurazioni di un sistema e la sua entropia. Suona fumoso… tipico dell’entropia! Eppure questa relazione è profonda, superficialmente lontana dalla corposità della prima vita dell’entropia, quella fisica, termodinamica, esplosiva, se non solo industriale e capitalistica, anche sovietica. Questa nuova entropia sembra invece ancora più ineffabile e rarefatta, come una nebbia: redenta dalle briglie termodinamiche dell’energia, ha solo bisogno di sterili concetti come probabilità, configurazioni e stati microscopici e macroscopici.
Perfino l’informazione, intuisce Shannon, è regolata da entropia. E attraverso la sua rappresentazione matematica, è semplice calcolarla. Chi non ha giocato ai codici segreti da bambino? Un messaggio può essere cifrato in numeri. Ad ogni lettera si assegna un numero, in base alla sua posizione nell’alfabeto: A:1, B:2, e così via. Come possiamo misurare la quantità di informazione presente in un testo, in un messaggio? Shannon dimostra come questa sia catturata dalla sua entropia. Ma come, un testo disordinato contiene più informazioni? In un certo senso è contro intuitivo, ma ragionando sull’espressibilità che il disordine permette, la cosa diventa più comprensibile.
Quanta informazione può nascondersi in una testo con la stessa lettera sempre ripetuta? AAA, poco, pochissimo. Servono sempre più lettere per cercare di codificare un messaggio. AA: sto bene; AAA: sto male. AAAA: scola la pasta. Sai che fatica. E per una “stringa” di numeri uguali? 11111111… Vale lo stesso. Più è variabile la sequenza, maggiore informazione si può infilare, nascondere, cifrare e decifrare. Declinando il tutto in termini delle probabilità con le quali una sequenza può comparire, il gioco è fatto. Ogni testo, e quindi ogni messaggio diviene misurabile, impacchettato, cablato, inviato e ricevuto.
Entropia e sistemi complessi
La fisica dei sistemi complessi tenta (e spesso riesce) a descrivere con la stessa matematica anche sistemi molto diversi tra loro: dalla rete di amicizie di un social network all’evoluzione della fauna in una dinamica preda-predatore, alle gocce di colorante in sospensione in un liquido.
I sistemi complessi sono tali perché vi sono molteplici relazioni tra loro: scambiano informazione e energia, mutano di configurazione, spesso in una dinamica “aperta” anche verso l’esterno (che è tutto ciò che non viene descritto come il sistema di interesse). La compresenza di diverse forze, fondamentali o efficaci, induce effetti a breve termine ed altri su scale più lunghe. L’entropia, che misura il grado di disordine del sistema, non coincide con la complessità.
Prendiamo un esempio di tutti giorni come sistema complesso: un cappuccino che viene mescolato col cucchiaino. La schiuma passa dall’essere candida, inizialmente, a striata, man mano che il liquido con il caffè viene sparso in superficie, fino ad un melange unico dopo un po’ di giri. Visto dall’alto, il sistema raggiunge la complessità massima quando i pattern di schiuma sono di diverso colore, per poi diventare “banale” quando si continua a mescolare; questo sistema diventa sempre più entropico man mano che si gira il cucchiaino, una “forzante” esterna in questo sistema complesso e “dissipativo”.
Quanti di entropia
L’entropia spunta anche nella meccanica quantistica, in qualche modo a sparigliare le carte. Il primo a rendersi conto della potenza della formula di Claude Shannon è John Von Neumann. Appiccica all’entropia una formula modificata, per renderla maneggevole anche per quella scienza “esoterica” che è la meccanica quantistica, concettuale, che tiene sì i concetti di informazione e probabilità, ma li espande e astrae ulteriormente, trovando in matrici e regole algebriche maggiore flessibilità per descrivere il mondo quantistico, le sue correlazioni, costruire una vera e propria nuova teoria dell’informazione, una teoria quantistica.
Richard P. Feynman, con uno dei suoi soliti calcoli al volo e fondamentali, prevede che l’entropia darà noia particolarmente ai calcolatori, quando neanche li chiamavamo così. Si può dire che l’entropia associata ai calcoli che avvengono in un microchip, e il calore che si genera (il calcolo scalda!) sono in parte l’impulso per la formalizzazione della teoria della computazione quantistica.
Entropia, algoritmi e chaos
Giungiamo quindi in un mondo ancora più astratto e fantasmagorico, fatto di algoritmi, di strumenti (matematici) per caratterizzarne la complessità, l’entropia, vedere quando essi stessi sono soggetti a transizioni di fasi, come un liquido che esplode in schiuma, o una nebbia che condensa in brina.
L’entropia è intimamente connessa al disordine e quindi anche al chaos. È in effetti uno dei modi con i quali si caratterizza. Anche nei sistemi quantistici, dove l’entropia di Von Neumann viene usata, sia per quantificare l’entanglement, che come impronta che una dinamica caotica, irregolare e imprevedibile si sta formando.
A. N. Kolmogorov, con la sua definizione di complessità degli algoritmi, ha spalancato un mondo, fatto di frattali e meccanismi ricorsivi, proponendo un modo per caratterizzare quanta informazione potesse stare in un algoritmo. Anche lui aveva avuto a che fare con l’entropia che lottava per non essere compressa, resa irrilevante.
Le musiche, le immagini, i video onirici generati dai programmi compressi in pochi megabyte sprigionano una complessità stupefacente, mimetizzando una certa foga entropica; la loro compressione massima ha un che di disturbante: manca qualcosa, un tocco in più di entropia che il nostro occhio e il nostro orecchio si aspetterebbero.
In effetti il nostro viaggio con l’entropia può essere condotto alla nostra innata ricerca della bellezza. Rompendo la regolarità e la monotonia dell’ordine, del prevedibile, l’entropia ci regala un mondo – un universo – più affascinante, per essere ammirato ed esplorato.
Nathan Shammah
7 novembre 2021