top of page

Create Your First Project

Start adding your projects to your portfolio. Click on "Manage Projects" to get started

Quantum mechanics

Tipo di progetto

Fotografia analogica e digitale

Data

luglio 2023 in divenire

Quantum Mechanics

Non si può dire che alcuno avverta il tempo separato dal movimento delle cose [...](I, 462-463)

LUCREZIO, De rerum natura

L'Informazione.

Sono molti gli scienziati che sospettano che il concetto di «informazione» possa essere fondamentale per compiere nuovi passi avanti nella fisica.
Anzitutto, che cos'è l'informazione?
La parola «informazione» è usata nella lingua corrente con una varietà di significati diversi, e questa è una sorgente di confusione anche nel suo uso scientifico.
La nozione scientifica di informazione è stata chiarita da Claude Shannon, matematico e ingegnere, nel 1948 ed è qualcosa di molto semplice: l'informazione è una misura del numero di alternative possibili per qualcosa.
Per esempio, se lancio un dado, questo può cadere su 6 facce, ho quindi una quantità di informazioni N=6, perché sei erano le possibili alternative.
Invece del numero di alternative N, per indicare l'informazione viene utilizzato, soprattutto nell'analisi della complessità computazionale, nella teoria dei codici e nella teoria dei segnali, i logaritmi binari (base 2) per cui l'informazione di Shannon è S= log2 N dove N è il numero di alternative.
Per S=1 che corrisponde a N=2 ho l'unità di misura minima che corrisponde a due sole possibilità cioè l'alternativa minima ed è chiamata «bit».
Due bit di informazione corrispondono a quattro alternative, tre bit ad otto alternative ecc.
Il punto sottile è che l'informazione non misura quello che so, ma il numero di alternative possibili in un Universo dove la realtà è data dalla probabilità che eventi accadono in relazione ad altri, correlati ad altri eventi.
Shannon , che ha inventato la teoria dell'informazione, lavorava in una compagnia telefonica, e stava cercando di misurare quanto potesse «portare» una linea telefonica. Cosa «porta» una linea telefonica?
Informazione, capacità di distinguere fra alternative in funzione ad esempio della «qualità della conversazione».
La nozione di informazione è utile perché misura la possibilità dei sistemi fisici di comunicare tra loro.

La materia è granulare.

Richard Feynman, il più grande fisico della seconda metà del XX secolo, scrive all'inizio delle sue lezioni introduttive di fisica:
Se in qualche cataclisma tutta la conoscenza scientifica dovesse essere distrutta, e fosse possibile trasmettere solo una frase per le future generazioni , quale affermazione potrebbe contenere il maggior numero di informazioni nel minor numero di parole? Credo che sia l›ipotesi che tutte le cose sono fatte di atomi. In questa frase è concentrata una quantità enorme di informazioni sul mondo, se solo poi usiamo un po› di immaginazione e pensiero.

R.FEYNMAN, La fisica di Feynman, tr. it. Zanichelli, Bologna 1990, Libro I, capitolo 1.

Immaginiamo un mondo formato da uno sterminato mare di atomi che rimbalzano, si attirano, si aggrappano.
Democrito di Abdera, vissuto tra il 470 e il 457 a.C. – tra il 360 e il 350 a.C tra i fondatori dell' «Atomismo» dice che, quando gli atomi si combinano, ciò che conta è la loro forma, la loro disposizione nella struttura nonché il modo in cui si combinano.
Il modo in cui gli atomi si dispongono può essere correlato al modo in cui altri atomi si dispongono.
Quindi, un insieme di atomi può avere informazione, nel senso tecnico e preciso descritto sopra, su un altro insieme.
Questo, nel mondo fisico, avviene continuamente e ovunque, in ogni momento e in ogni dove:
la luce che arriva ai nostri occhi porta informazione sugli oggetti da cui proviene, il colore del mare ha informazione sul colore del cielo al di sopra di esso, una cellula ha informazione sul virus che l'ha attaccata, un nuovo essere vivente ha informazione perché è correlato con i suoi genitori e con la sua specie, la forma di una foglia dice molto sulla struttura biologica che la compone, come la forma di un fiocco di neve rispecchia la propria struttura cristallina e tu caro lettore e osservatore mentre leggi questo preambolo e guardi le mie fotografie ricevi informazioni su quello che sto pensando mentre scrivo, sul modo di interpretare il mondo che ho visto.
Quello che avviene negli atomi del tuo cervello non è più del tutto indipendente da quello che avviene negli atomi del mio cervello.
Il mondo non è, quindi, solo una rete di atomi che si scontrano: è anche una rete di correlazioni fra insiemi di atomi, una rete di reciproca informazione fra sistemi fisici.
In tutto questo non c'è nulla di idealistico né di spirituale;
non è che un'applicazione dell'idea di Shannon secondo cui le alternative si possono contare.

Bibliografia


Carlo Rovelli « La realtà non è come ci appare. La struttura elementare delle cose.»


Raffaello Cortina Editore 2014

The Information.

There are many scientists who suspect that the concept of «information» can be fundamental to making further progress in physics. First of all, what is information? The word «information» is used in the current language with a variety of different meanings, and this is a source of confusion even in its scientific use.
The scientific notion of information was clarified by Claude Shannon, mathematician and engineer, in 1948 and is something very simple: information is a measure of the number of possible alternatives for something. For example, if I roll a die, it can fall on 6 faces, so I have a lot of information N=6, because six were the possible alternatives. Instead of the number of alternatives N, binary logarithms (base 2) are used to indicate information, especially in computational complexity analysis, code theory and signal theory so the Shannon information is S= log2 N where N is the number of alternatives.
For S=1 which corresponds to N=2 I have the minimum unit of measure which corresponds to only two possibilities that is the minimum alternative and is called «bit». Two bits of information correspond to four alternatives, three bits to eight alternatives, etc. The subtle point is that information does not measure what I know, but the number of possible alternatives in a Universe where reality is given by the probability that events happen in relation to others, related to other events. Shannon , who invented the theory of information, worked in a telephone company, and was trying to measure how much a telephone line could «carry». What «brings» a telephone line? Information, ability to distinguish between alternatives in function for example of the «quality of the conversation». The notion of information is useful because it measures the ability of physical systems to communicate with each other.

The material is granular.

Richard Feynman, the greatest physicist of the second half of the 20th century, writes at the beginning of his introductory lessons in physics: If in some cataclysm all scientific knowledge were to be destroyed, and only one sentence could be transmitted for future generations, what statement could contain the most information in the least number of words? I think that’s the assumption that all things are made of atoms. In this sentence is concentrated a huge amount of information about the world, if only then we use a little imagination and thought.

R.FEYNMAN, The physics of Feynman, tr. it. Zanichelli, Bologna 1990, Book I, chapter 1.

Imagine a world formed by an endless sea of atoms that bounce, attract, cling. Democritus of Abdera, who lived between 470 and 457 B.C. - between 360 and 350 B.C., among the founders of «Atomism» says that when atoms combine, what matters is their shape, their arrangement in structure, and the way they combine. The way atoms are arranged can be related to the way other atoms are arranged. Thus, a set of atoms can have information, in the technical and precise sense described above, about another set.
This, in the physical world, happens continuously and everywhere, every moment and every where: the light that comes to our eyes brings information about the objects from which it comes, the color of the sea has information about the color of the sky above it, a cell has information about the virus that attacked it, a new living being has information because it is related to its parents and with its species, the shape of a leaf says a lot about the biological structure that composes it, as the shape of a snowflake reflects its crystalline structure and you dear reader and observer as you read this preamble and look at my photographs receive information about what I’m thinking as I write, about how to interpret the world I saw.
What happens in the atoms of your brain is no longer entirely independent of what happens in the atoms of my brain. The world is therefore not just a network of colliding atoms: it is also a network of correlations between sets of atoms, a network of reciprocal information between physical systems. In all this there is nothing idealistic or spiritual; It’s just an application of Shannon’s idea that alternatives can be counted.

bottom of page